DE102018114596A1 - Systeme und verfahren zum reinigen eines fahrzeugs - Google Patents

Systeme und verfahren zum reinigen eines fahrzeugs Download PDF

Info

Publication number
DE102018114596A1
DE102018114596A1 DE102018114596.9A DE102018114596A DE102018114596A1 DE 102018114596 A1 DE102018114596 A1 DE 102018114596A1 DE 102018114596 A DE102018114596 A DE 102018114596A DE 102018114596 A1 DE102018114596 A1 DE 102018114596A1
Authority
DE
Germany
Prior art keywords
autonomous vehicle
vehicle
value
image data
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018114596.9A
Other languages
English (en)
Inventor
Valor Yaldo
Xiaofeng F. Song
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102018114596A1 publication Critical patent/DE102018114596A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S3/00Vehicle cleaning apparatus not integral with vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Human Resources & Organizations (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es werden Systeme und Verfahren zum Steuern eines autonomen Fahrzeugs bereitgestellt. In einer Ausführungsform beinhaltet ein Verfahren: das Empfangen von Bilddaten von einem Kameragerät, das mit dem autonomen Fahrzeug gekoppelt ist; das Berechnen, mithilfe eines Prozessors, eines Wertes basierend auf den Bilddaten; das Ermitteln, mithilfe eines Prozessors, einer der Optionen - der Reinheit oder der Unreinheit - des autonomen Fahrzeugs basierend auf dem berechneten Wert; und das selektive Generieren, mithilfe eines Prozessors, eines Signals an mindestens einen zum Steuern des autonomen Fahrzeugs, um es zu einer Reinigungsstation zu navigieren und einen Benutzer basierend auf der ermittelten Option - der Reinheit oder der Unreinheit - des autonomen Fahrzeugs zu benachrichtigen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung bezieht sich allgemein auf autonome Fahrzeuge und betrifft insbesondere Systeme und Verfahren zum Ermitteln, wann das autonome Fahrzeug gereinigt werden muss, sowie zum Steuern des autonomen Fahrzeugs basierend darauf.
  • EINLEITUNG
  • Ein autonomes Fahrzeug ist ein Fahrzeug, das in der Lage ist, seine Umgebung zu erfassen und mit geringfügiger oder gar keiner Benutzereingabe zu navigieren. Ein autonomes Fahrzeug erfasst seine Umgebung unter Verwendung von Sensorvorrichtungen, wie beispielsweise Radar-, Lidar-, Bildsensoren und dergleichen. Das autonome Fahrzeugsystem nutzt weiterhin Informationen von globalen Positioniersystemen (GPS), Navigationssystemen, Fahrzeug-Fahrzeug-Kommunikationen, Fahrzeug-Infrastruktur-Technologien und/oder drahtgesteuerten Systemen, um das Fahrzeug zu navigieren.
  • Die Fahrzeugautomatisierung wurde kategorisiert nach nummerischen Ebenen von null, entsprechend keiner Automatisierung mit voller menschlicher Kontrolle, bis fünf, entsprechend der vollen Automatisierung ohne menschliche Kontrolle. Verschiedene automatisierte Fahrerassistenzsysteme, wie beispielsweise Geschwindigkeitsregelung, adaptive Geschwindigkeitsregelung und Parkassistenzsysteme, entsprechen niedrigeren Automatisierungsebenen, während echte „fahrerlose“ Fahrzeuge mit höheren Automatisierungsebenen übereinstimmen.
  • In einigen Fällen verfügt ein autonomes Fahrzeug möglicherweise nicht über einen dedizierten Fahrer zum Überwachen der allgemeinen Reinheit des Fahrzeugs. Wenn das autonome Fahrzeug beispielsweise Teil einer Flotte von Fahrzeugen ist, die Fahrgäste von einem Standort an einen anderen befördern, wird das autonome Fahrzeug möglicherweise nicht regelmäßig von einem Eigentümer gesehen. Somit bleibt eine jegliche Unreinheit des Fahrzeugs unter Umständen unbemerkt.
  • Dementsprechend ist es wünschenswert, Systeme und Verfahren bereitzustellen, welche ermitteln, wann das autonome Fahrzeug gereinigt werden muss und die das autonome Fahrzeug dann basierend darauf steuern. Ferner werden andere wünschenswerte Funktionen und Merkmale der vorliegenden Erfindung aus der nachfolgenden ausführlichen Beschreibung und den beigefügten Ansprüchen, in Verbindung mit den beigefügten Zeichnungen, sowie mit dem vorangehenden technischen Gebiet und Hintergrund ersichtlich offensichtlich.
  • KURZDARSTELLUNG
  • Systeme und Verfahren zum Steuern eines autonomen Fahrzeugs werden bereitgestellt. In einer Ausführungsform beinhaltet ein Verfahren: das Empfangen von Bilddaten von einem Kameragerät, das mit dem autonomen Fahrzeug gekoppelt ist; das Berechnen, mithilfe eines Prozessors, eines Wertes basierend auf den Bilddaten; das Ermitteln, mithilfe eines Prozessors, mindestens einer der Optionen - der Reinheit oder der Unreinheit - des autonomen Fahrzeugs basierend auf dem berechneten Wert; und das selektive Generieren, mithilfe eines Prozessors, eines Signals an mindestens einen zum Steuern des autonomen Fahrzeugs, um es zu einer Reinigungsstation zu navigieren und einen Benutzer basierend auf der ermittelten Option - mindestens der Reinheit oder der Unreinheit - des autonomen Fahrzeugs zu benachrichtigen.
  • Figurenliste
  • Die exemplarischen Ausführungsformen werden nachfolgend in Verbindung mit den folgenden Zeichnungen beschrieben, worin gleiche Bezugszeichen gleiche Elemente bezeichnen, und worin gilt:
    • 1A zeigt ein Funktionsblockdiagramm, das ein autonomes Fahrzeug mit einem Reinigungssystem darstellt, gemäß verschiedenen Ausführungsformen;
    • 1B ist eine Veranschaulichung von Fahrzeugkameras des Reinigungssystems, das innerhalb des autonomen Fahrzeugs verteilt ist, gemäß verschiedenen Ausführungsformen;
    • 2 zeigt ein Funktionsblockdiagramm, das ein Transportsystem mit einem oder mehreren autonomen Fahrzeugen aus 1A darstellt, gemäß verschiedenen Ausführungsformen; und
    • 3 zeigt ein Funktionsblockdiagramm, das ein autonomes Fahrsystem mit einem Reinigungssystem des Fahrzeugs aus 1A darstellt, gemäß verschiedenen Ausführungsformen;
    • 4 ist ein Ablaufdiagramm, das ein Steuerverfahren zum Steuern des autonomen Fahrzeugs darstellt, gemäß verschiedenen Ausführungsformen.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende ausführliche Beschreibung dient lediglich als Beispiel und soll die Anwendung und Verwendung in keiner Weise einschränken. Weiterhin besteht keine Absicht, im vorstehenden technischen Bereich, Hintergrund, der Kurzzusammenfassung oder der folgenden ausführlichen Beschreibung an eine ausdrücklich oder implizit vorgestellte Theorie gebunden zu sein. Der hierin verwendete Begriff „Modul“ bezieht sich auf alle Hardware-, Software-, Firmwareprodukte, elektronische Steuerkomponenten, auf die Verarbeitungslogik und/oder Prozessorgeräte, einzeln oder in Kombinationen, unter anderem umfassend, eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder gruppiert) und einen Speicher, der ein oder mehrere Software- oder Firmwareprogramme, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten ausführt, die die beschriebene Funktionalität bieten.
  • Ausführungen der vorliegenden Offenbarung können hierin als funktionale und/oder logische Blockkomponenten und verschiedene Verarbeitungsschritte beschrieben sein. Es ist zu beachten, dass derartige Blockkomponenten aus einer beliebigen Anzahl an Hardware-, Software- und/oder Firmware-Komponenten aufgebaut sein können, die zur Ausführung der erforderlichen Funktionen konfiguriert sind. Zum Beispiel kann eine Ausführungsform der vorliegenden Offenbarung eines Systems oder einer Komponente verschiedene integrierte Schaltungskomponenten, beispielsweise Speicherelemente, digitale Signalverarbeitungselemente, Logikelemente, Wertetabellen oder dergleichen, einsetzen, die mehrere Funktionen unter der Steuerung eines oder mehrerer Mikroprozessoren oder anderer Steuervorrichtungen durchführen können. Zudem werden Fachleute auf dem Gebiet erkennen, dass die exemplarischen Ausführungsformen der vorliegenden Offenbarung in Verbindung mit einer beliebigen Anzahl an Systemen eingesetzt werden können, und dass das hierin beschriebene System lediglich eine exemplarische Ausführungsform der vorliegenden Offenbarung darstellt.
  • Der Kürze halber sind konventionelle Techniken in Verbindung mit der Signalverarbeitung, Datenübertragung, Signalgebung, Steuerung und weiteren funktionalen Aspekten der Systeme (und den einzelnen Bedienelementen der Systeme) hierin ggf. nicht im Detail beschrieben. Weiterhin sollen die in den verschiedenen Figuren dargestellten Verbindungslinien exemplarische Funktionsbeziehungen und/oder physikalische Verbindungen zwischen den verschiedenen Elementen darstellen. Es sollte beachtet werden, dass viele alternative oder zusätzliche funktionale Beziehungen oder physikalische Verbindungen in einer Ausführungsform der vorliegenden Offenbarung vorhanden sein können.
  • Unter Bezugnahme auf 1A ist ein im Allgemeinen bei 100 dargestelltes Reinigungssystem gemäß verschiedenen Ausführungsformen mit einem Fahrzeug 10 assoziiert. Im Allgemeinen empfängt das Reinigungssystem 100 Sensordaten von integrierten Sensoren, erkennt eine Unreinheit des Fahrzeugs, generiert Warnmeldungen bezüglich der Unreinheit und/oder steuert das Fahrzeug 10 basierend auf der Unreinheit.
  • Wie in 1A dargestellt, beinhaltet das Fahrzeug 10 im Allgemeinen ein Fahrgestell 12, eine Karosserie 14, Vorderräder 16 und Hinterräder 18. Die Karosserie 14 ist auf dem Fahrgestell 12 angeordnet und schließt im Wesentlichen die anderen Komponenten des Fahrzeugs 10 ein. Die Karosserie 14 und das Fahrgestell 12 können gemeinsam einen Rahmen bilden. Die Räder 16-18 sind jeweils mit dem Fahrgestell 12 in der Nähe einer jeweiligen Ecke der Karosserie 14 drehbar verbunden.
  • In verschiedenen Ausführungsformen ist das Fahrzeug 10 ein autonomes Fahrzeug und das Reinigungssystem 100 ist in das autonome Fahrzeug 10 (nachfolgend als das autonome Fahrzeug 10 bezeichnet) integriert. Das autonome Fahrzeug 10 ist beispielsweise ein Fahrzeug, das automatisch gesteuert wird, um Fahrgäste von einem Ort zum anderen zu befördern. Das Fahrzeug 10 ist in der veranschaulichten Ausführungsform als Pkw dargestellt, es sollte jedoch beachtet werden, dass auch jedes andere Fahrzeug, einschließlich Motorräder, Lastwagen, Sportfahrzeuge (SUVs), Freizeitfahrzeuge (RVs), Schiffe, Flugzeuge usw. verwendet werden können. In einer exemplarischen Ausführungsform ist das autonome Fahrzeug 10 ein sogenanntes Level-Vier oder Level-Fünf Automatisierungssystem. Ein Level-Vier-System zeigt eine „hohe Automatisierung“ unter Bezugnahme auf die Fahrmodus-spezifische Leistung durch ein automatisiertes Fahrsystem aller Aspekte der dynamischen Fahraufgabe an, selbst wenn ein menschlicher Fahrer nicht angemessen auf eine Anforderung einzugreifen, reagiert. Ein Level-Fünf-System zeigt eine „Vollautomatisierung“ an und verweist auf die Vollzeitleistung eines automatisierten Fahrsystems aller Aspekte der dynamischen Fahraufgabe unter allen Fahrbahn- und Umgebungsbedingungen, die von einem menschlichen Fahrer verwaltet werden können.
  • Wie dargestellt, beinhaltet das autonome Fahrzeug 10 im Allgemeinen ein Antriebssystem 20, ein Übertragungssystem 22, ein Lenksystem 24, ein Bremssystem 26, ein Sensorsystem 28, ein Stellgliedsystem 30, mindestens einen Datenspeicher 32, mindestens eine Steuerung 34 und ein Kommunikationssystem 36. Das Antriebssystem 20 kann in verschiedenen Ausführungsformen einen Verbrennungsmotor, eine elektrische Maschine, wie beispielsweise einen Traktionsmotor und/oder ein Brennstoffzellenantriebssystem, beinhalten. Das Übertragungssystem 22 ist dazu konfiguriert, Leistung vom Antriebssystem 20 zu den Fahrzeugrädern 16-18 gemäß den wählbaren Übersetzungen zu übertragen. Gemäß verschiedenen Ausführungsformen kann das Getriebesystem 22 ein Stufenverhältnis-Automatikgetriebe, ein stufenlos verstellbares Getriebe oder ein anderes geeignetes Getriebe beinhalten. Das Bremssystem 26 ist dazu konfiguriert, den Fahrzeugrädern 16-18 ein Bremsmoment bereitzustellen. Das Bremssystem 26 kann in verschiedenen Ausführungsformen Reibungsbremsen, Brake-by-Wire, ein regeneratives Bremssystem, wie beispielsweise eine elektrische Maschine und/oder andere geeignete Bremssysteme beinhalten. Das Lenksystem 24 beeinflusst die Position der Fahrzeugräder 16-18. Während in einigen Ausführungsformen innerhalb des Umfangs der vorliegenden Offenbarung zur Veranschaulichung als ein Lenkrad dargestellt, kann das Lenksystem 24 kein Lenkrad beinhalten.
  • Das Sensorsystem 28 beinhaltet eine oder mehrere Sensorvorrichtungen 40a-40n, die beobachtbare Zustände der äußeren Umgebung und/oder der inneren Umgebung des autonomen Fahrzeugs 10 erfassen. Die Sensoren 40a-40n können Radargeräte, Lidare, globale Positionierungssysteme, optische Kameras, Wärmebildkameras, Ultraschallsensoren, Trägheitsmesseinheiten und/oder andere Sensoren beinhalten, sind aber nicht darauf beschränkt. Das Stellantriebssystem 30 beinhaltet eine oder mehrere Stellantriebs-Vorrichtungen 42a-42n, die ein oder mehrere Fahrzeugmerkmale, wie zum Beispiel das Antriebssystem 20, das Getriebesystem 22, das Lenksystem 24 und das Bremssystem 26, steuern, jedoch nicht darauf beschränkt sind. In verschiedenen Ausführungsformen können die Fahrzeugmerkmale, die von einem oder mehreren Stellgliedern 42a-42n gesteuert werden, zudem Innen- und/oder Außenfahrzeugmerkmale, wie beispielsweise Türen, einen Kofferraum und Innenraummerkmale, wie z. B. Luft, Musik, Beleuchtung usw., beinhalten, sind jedoch nicht auf diese beschränkt (nicht nummeriert).
  • In verschiedenen Ausführungsformen beinhaltet das Sensorsystem 28 eine Kamera oder andere Bildgebungsgeräte 31, nachstehend als Kamerageräte 31 bezeichnet. Die Kamerageräte 31 sind mit einer Außenseite der Karosserie 14 des Fahrzeugs 10 und/oder mit einem Innenraum des Fahrzeugs 10 gekoppelt, sodass sie zusätzlich zu Bildern der Umgebung des Fahrzeugs 10 Bilder der Außenseite des Fahrzeugs 10 erfassen können. Die Kamerageräte 31 können beispielsweise Frontkameras beinhalten, welche den Motorraum in ihrem Sichtfeld beinhalten, oder aber Umgebungssichtkameras, welche Teile der Fahrzeugkarosserie in ihrem Sichtfeld beinhalten. Die Bilder der Außenseite des Fahrzeugs 10 werden vom Reinigungssystem 100 und die Umgebungsbilder von einem autonomen Fahrsystem verwendet.
  • Wie dargestellt, befinden sich die Kamerageräte 31 an selektiven Stellen im gesamten Fahrzeug 10, sodass ein Kameragerät oder ein bestimmter Satz Kamerageräte 31 zur Bilderfassung von Teilen der Außenkarosserie des Fahrzeugs 10 ausgewählt sind. Eine exemplarische Ausführungsform der Kamerageräte 31, die im Fahrzeug 10 verteilt sind, ist beispielsweise in 1B veranschaulicht. Wie dargestellt befinden sich die Kamerageräte 31a-31j (oder beliebige Anzahl an Kamerageräten 31) an verschiedenen Stellen und sie sind so ausgerichtet, dass sie verschiedene Teile der Umgebung in der Nähe von Fahrzeug 10 erfassen. Wie zu erkennen ist, kann es sich bei den Kamerageräten 31a-31j bei allen um denselben Kameragerätetyp oder aber um eine Kombination aus beliebigen Kameragerätetypen handeln. Zum Beispiel ist eine erste Kamera 31a an der vorderen linken Seite (oder Fahrerseite) des Fahrzeugs 10 positioniert und ihr Sichtfeld ist in Vorwärtsrichtung in Relation zur Längsachse des Fahrzeugs 10 um 45° entgegen dem Uhrzeigersinn ausgerichtet, und ein anderes Kameragerät 31c kann an der vorderen rechten Seite (oder Beifahrerseite) des Fahrzeugs 10 positioniert und in Relation zur Längsachse des Fahrzeugs 10 um 45° im Uhrzeigersinn ausgerichtet sein. Zusätzliche Kamerageräte 31i, 31j sind an den hinteren linken und rechten Seiten des Fahrzeugs 10 positioniert und in Relation zur Längsachse des Fahrzeugs in ähnlicher Weise um 45° entgegen dem Uhrzeigersinn ausgerichtet, zusammen mit den Kamerageräten 31d und 31h, die an der linken und der rechten Seite des Fahrzeugs 10 positioniert und von der Längsachse weggerichtet sind, um sich so entlang einer Achse zu erstrecken, die im Wesentlichen senkrecht zur Längsachse des Fahrzeugs ist. Die dargestellte Ausführungsform beinhaltet zudem eine Gruppe von Kamerageräten 31e-31g an oder nahe der Fahrzeuglängsachse und so ausgerichtet, um Vorwärtsrichtungssignale entsprechend der Fahrzeuglängsachse bereitzustellen.
  • In verschiedenen Ausführungsformen haben die Seitenkamerageräte 31d und 31h ein breites Sichtfeld oder sie sind in einer Weise ausgerichtet, dass sie einen Teil der Fahrzeugkarosserie erfassen, und das Kameragerät 31f erfasst eine Motorhaube der Fahrzeugkarosserie. Diese Kamerageräte 31d, 31h und 31f können ausreichend Bilder bereitstellen, um die Reinheit der Fahrzeugaußenseite zu evaluieren.
  • Mit Bezug auf 1A ist das Kommunikationssystem 36 dazu konfiguriert, Informationen drahtlos an und von anderen Einheiten 48, wie beispielsweise, jedoch nicht beschränkt auf andere Fahrzeuge („V2V“-Kommunikation), Infrastruktur („V2I“-Kommunikation), Fernsysteme und/oder persönliche Vorrichtungen (in Bezug auf 2 näher beschrieben) zu übermitteln. In einer exemplarischen Ausführungsform ist das drahtlose Kommunikationssystem 36 dazu konfiguriert, über ein drahtloses lokales Netzwerk (WLAN) unter Verwendung des IEEE 802.11-Standards, über Bluetooth oder mittels einer mobilen Datenkommunikation zu kommunizieren. Im Geltungsbereich der vorliegenden Offenbarung werden jedoch auch zusätzliche oder alternative Kommunikationsverfahren, wie beispielsweise ein dedizierter Nahbereichskommunikations (DSRC)-Kanal, berücksichtigt. DSRC-Kanäle beziehen sich auf Einweg- oder Zweiwege-Kurzstrecken- bis Mittelklasse-Funkkommunikationskanäle, die speziell für den Automobilbau und einen entsprechenden Satz von Protokollen und Standards entwickelt wurden.
  • Die Datenspeichervorrichtung 32 speichert Daten zur Verwendung beim automatischen Steuern des autonomen Fahrzeugs 10. In verschiedenen Ausführungsformen speichert die Datenspeichervorrichtung 32 definierte Landkarten der navigierbaren Umgebung. In verschiedenen Ausführungsformen werden die definierten Landkarten vordefiniert und von einem Fernsystem (in weiteren Einzelheiten in Bezug auf 2 beschrieben) erhalten. So können beispielsweise die definierten Landkarten durch das Fernsystem zusammengesetzt und dem autonomen Fahrzeug 10 (drahtlos und/oder drahtgebunden) mitgeteilt und in der Datenspeichervorrichtung 32 gespeichert werden. Wie ersichtlich, kann die Datenspeichervorrichtung 32 ein Teil der Steuerung 34, von der Steuerung 34 getrennt, oder ein Teil der Steuerung 34 und Teil eines separaten Systems sein.
  • Die Steuerung 34 beinhaltet mindestens einen Prozessor 44 und eine computerlesbare Speichervorrichtung oder Medien 46. Der Prozessor 44 kann eine Spezialanfertigung oder ein handelsüblicher Prozessor sein, eine Zentraleinheit (CPU), eine Grafikprozessoreinheit (GPU) unter mehreren Prozessoren verbunden mit der Steuerung 34, ein Mikroprozessor auf Halbleiterbasis (in Form eines Mikrochips oder Chip-Satzes), ein Makroprozessor, eine Kombination derselben oder allgemein jede beliebige Vorrichtung zur Ausführung von Anweisungen. Die computerlesbare Speichervorrichtung oder Medien 46 können flüchtige und nicht-flüchtige Speicher in einem Nur-Lese-Speicher (ROM), einem Speicher mit direktem Zugriff (RAM) und einem Keep-Alive-Memory (KAM) beinhalten. KAM ist ein persistenter oder nicht-flüchtiger Speicher, der verwendet werden kann, um verschiedene Betriebsvariablen zu speichern, während der Prozessor 44 ausgeschaltet ist. Die computerlesbare Speichervorrichtung oder Medien 46 können unter Verwendung einer beliebigen einer Anzahl an bekannten Speichervorrichtungen, wie beispielsweise PROMs (programmierbarer Nur-Lese-Speicher), EPROMs (elektrische PROM), EEPROMs (elektrisch löschbarer PROM), Flash-Speicher oder beliebige andere elektrischen, magnetischen, optischen oder kombinierten Speichervorrichtungen implementiert werden, die Daten speichern können, von denen einige ausführbare Anweisungen darstellen, die von der Steuerung 34 beim Steuern des autonomen Fahrzeugs 10 verwendet werden.
  • Die Anweisungen können ein oder mehrere separate Programme beinhalten, von denen jede eine geordnete Auflistung von ausführbaren Anweisungen zum Implementieren von logischen Funktionen beinhaltet. Die Anweisungen empfangen und verarbeiten, wenn diese vom Prozessor 44 ausgeführt werden, Signale vom Sensorsystem 28, führen Logik, Berechnungen, Verfahren und/oder Algorithmen zur automatischen Steuerung der Komponenten des autonomen Fahrzeugs 10 durch und erzeugen Steuersignale an das Stellantriebssystem 30, um die Komponenten des autonomen Fahrzeugs 10 basierend auf der Logik, den Berechnungen, den Verfahren und/oder Algorithmen automatisch zu steuern. Obgleich in 1A nur eine Steuerung 34 dargestellt ist, können Ausführungsformen des autonomen Fahrzeugs 10 eine beliebige Anzahl an Steuerungen 34 beinhalten, die über ein geeignetes Kommunikationsmedium oder eine Kombination von Kommunikationsmedien kommunizieren und zusammenwirken, um die Sensorsignale zu verarbeiten, Logiken, Berechnungen, Verfahren und/oder Algorithmen durchzuführen, und Steuersignale zu erzeugen, um die Funktionen des autonomen Fahrzeugs 10 automatisch zu steuern.
  • In verschiedenen Ausführungsformen sind eine oder mehrere Anweisungen der Steuerung 34 in das Reinigungssystem 100 implementiert und, wenn sie vom Prozessor 44 ausgeführt werden, empfangen sie Bilddaten von den Kamerageräten 31, verarbeiten sie die Bilddaten, um die Durchsicht der Kameralinse zu verifizieren und/oder um eine Unreinheit der Fahrzeugkarosserie zu verifizieren, und/oder um das Fahrzeug basierend auf der ermittelten Durchsicht und/oder Unreinheit zu steuern. In verschiedenen Ausführungsformen steuern die Anweisungen, wenn sie vom Prozessor 44 ausgeführt werden, das Fahrzeugs 10, um es zu einer Fahrzeugreinigungsstation zu navigieren.
  • Mit weiterem Bezug auf 2 kann in verschiedenen Ausführungsformen das autonome Fahrzeug 10, das in Bezug auf 1A beschrieben ist, für den Einsatz im Rahmen eines Taxi- oder Shuttle-Unternehmens in einem bestimmten geografischen Gebiet (z. B. einer Stadt, einer Schule oder einem Business Campus, einem Einkaufszentrum, einem Vergnügungspark, einem Veranstaltungszentrum oder dergleichen) geeignet sein oder einfach per Fernsystem verwaltet werden. So kann beispielsweise das autonome Fahrzeug 10 einem autonomen fahrzeugbasierten Transportsystem zugeordnet sein. 2 veranschaulicht eine exemplarische Ausführungsform einer Betriebsumgebung, die im Allgemeinen in 50 dargestellt ist und ein autonomes fahrzeugbasiertes Transportsystem 52 beinhaltet, das, wie mit Bezug auf 1A beschrieben, einem oder mehreren autonomen Fahrzeugen 10a-10n zugeordnet ist. In verschiedenen Ausführungsformen beinhaltet die Betriebsumgebung 50 ferner eine oder mehrere Benutzervorrichtungen 54, die mit dem autonomen Fahrzeug 10 und/oder dem Ferntransportsystem 52 über ein Kommunikationsnetzwerk 56 kommunizieren.
  • Das Kommunikationsnetzwerk 56 unterstützt die Kommunikation zwischen Geräten, Systemen und Komponenten, die von der Betriebsumgebung 50 unterstützt werden (z. B. über physische Kommunikationsverbindungen und/oder drahtlose Kommunikationsverbindungen). So kann beispielsweise das Kommunikationsnetzwerk 56 ein drahtloses Trägersystem 60 beinhalten, wie beispielsweise ein Mobiltelefonsystem, das eine Vielzahl von Mobilfunktürmen (nicht dargestellt), eine oder mehrere Mobilvermittlungsstellen (MSCs) (nicht dargestellt) sowie alle anderen Netzwerkkomponenten beinhalten, die zum Verbinden des drahtlosen Trägersystems 60 mit dem Festnetz erforderlich sind. Jeder Mobilfunkturm beinhaltet Sende- und Empfangsantennen und eine Basisstation, wobei die Basisstationen verschiedener Mobilfunktürme mit den MSC verbunden sind, entweder direkt oder über Zwischenvorrichtungen, wie beispielsweise eine Basisstationssteuerung. Das Drahtlosträgersystem 60 kann jede geeignete Kommunikationstechnologie implementieren, beispielsweise digitale Technologien, wie CDMA (z. B. CDMA2000), LTE (z. B. 4G LTE oder 5G LTE), GSM/GPRS oder andere aktuelle oder neu entstehende drahtlose Technologien. Der Sachverständige auf dem Gebiet wird erkennen, dass verschiedene Mobilfunkturm-/Basisstation-/MSC-Anordnungen möglich sind und mit dem Mobilfunkanbietersystem 60 verwendet werden können. So könnten sich beispielsweise die Basisstation und der Mobilfunkturm an derselben Stelle oder entfernt voneinander befinden, jede Basisstation könnte für einen einzelnen Mobilfunkturm zuständig sein oder eine einzelne Basisstation könnte verschiedene Mobilfunktürme bedienen, oder verschiedene Basisstationen könnten mit einer einzigen MSC gekoppelt werden, um nur einige der möglichen Anordnungen zu nennen.
  • Abgesehen vom Verwenden des drahtlosen Trägersystems 60 kann ein zweites drahtloses Trägersystem in Form eines Satellitenkommunikationssystems 64 verwendet werden, um unidirektionale oder bidirektionale Kommunikation mit dem autonomen Fahrzeug 10a-10n bereitzustellen. Dies kann unter Verwendung von einem oder mehreren Kommunikationssatelliten (nicht dargestellt) und einer aufwärts gerichteten Sendestation (nicht dargestellt) erfolgen. Die unidirektionale Kommunikation kann beispielsweise Satellitenradiodienste beinhalten, worin programmierte Inhaltsdaten (Nachrichten, Musik usw.) von der Sendestation empfangen werden, für das Hochladen gepackt und anschließend zum Satelliten gesendet werden, der die Programmierung an die Teilnehmer ausstrahlt. Die bidirektionale Kommunikation kann beispielsweise Satellitentelefondienste beinhalten, die den Satelliten verwenden, um Telefonkommunikationen zwischen dem Fahrzeug 10 und der Station weiterzugeben. Die Satellitentelefonie kann entweder zusätzlich oder anstelle des Mobilfunkanbietersystems 60 verwendet werden.
  • Ein Festnetz-Kommunikationssystem 62 kann ein konventionelles Festnetz-Telekommunikationsnetzwerk beinhalten, das mit einem oder mehreren Festnetztelefonen verbunden ist und das drahtlose Trägersystem 60 mit dem Ferntransportsystem 52 verbindet. So kann beispielsweise das Festnetz-Kommunikationssystem 62 ein Fernsprechnetz (PSTN) wie jenes sein, das verwendet wird, um festverdrahtetes Fernsprechen, paketvermittelte Datenkommunikationen und die Internetinfrastruktur bereitzustellen. Ein oder mehrere Segmente des Festnetz-Kommunikationssystems 62 könnten durch Verwenden eines normalen drahtgebundenen Netzwerks, eines Lichtleiter- oder eines anderen optischen Netzwerks, eines Kabelnetzes, von Stromleitungen, anderen drahtlosen Netzwerken, wie drahtlose lokale Netzwerke (WLANs) oder Netzwerke, die drahtlosen Breitbandzugang (BWA - Broadband Wireless Access) bereitstellen oder jeder Kombination davon implementiert sein. Weiterhin muss das Ferntransportsystem 52 nicht über das Festnetz-Kommunikationssystem 62 verbunden sein, sondern könnte Funktelefonausrüstung beinhalten, sodass sie direkt mit einem drahtlosen Netzwerk, wie z. B. dem drahtlosen Trägersystem 60, kommunizieren kann.
  • Obwohl in 2 nur eine Benutzervorrichtung 54 dargestellt ist, können Ausführungsformen der Betriebsumgebung 50 eine beliebige Anzahl an Benutzervorrichtungen 54, einschließlich mehrerer Benutzervorrichtungen 54 unterstützen, die das Eigentum einer Person sind, von dieser bedient oder anderweitig verwendet werden. Jede Benutzervorrichtung 54, die von der Betriebsumgebung 50 unterstützt wird, kann unter Verwendung einer geeigneten Hardwareplattform implementiert werden. In dieser Hinsicht kann das Benutzergerät 54 in einem gemeinsamen Formfaktor realisiert werden, darunter auch in: einen Desktop-Computer; einem mobilen Computer (z. B. einem Tablet-Computer, einem Laptop-Computer oder einem Netbook-Computer); einem Smartphone; einem Videospielgerät; einem digitalen Media-Player; einem Bestandteil eines Heimunterhaltungsgeräts; einer Digitalkamera oder Videokamera; einem tragbaren Computergerät (z. B. einer Smart-Uhr, Smart-Brille, Smart-Kleidung); oder dergleichen. Jede von der Betriebsumgebung 50 unterstützte Benutzervorrichtung 54 wird als computerimplementiertes oder computergestütztes Gerät mit der Hardware-, Software-, Firmware- und/oder Verarbeitungslogik anerkannt, die für die Durchführung der hier beschriebenen verschiedenen Techniken und Verfahren erforderlich ist. So beinhaltet beispielsweise die Benutzervorrichtung 54 einen Mikroprozessor in Form einer programmierbaren Vorrichtung, die eine oder mehrere in einer internen Speicherstruktur gespeicherte Anweisungen beinhaltet und angewendet wird, um binäre Eingaben zu empfangen und binäre Ausgaben zu erzeugen. In einigen Ausführungsformen beinhaltet die Benutzervorrichtung 54 ein GPS-Modul, das GPS-Satellitensignale empfangen und GPS-Koordinaten basierend auf diesen Signalen erzeugen kann. In weiteren Ausführungsformen beinhaltet die Benutzervorrichtung 54 eine Mobilfunk-Kommunikationsfunktionalität, sodass die Vorrichtung Sprach- und/oder Datenkommunikationen über das Kommunikationsnetzwerk 56 unter Verwendung eines oder mehrerer Mobilfunk-Kommunikationsprotokolle durchführt, wie hierin erläutert. In verschiedenen Ausführungsformen beinhaltet die Benutzervorrichtung 54 eine visuelle Anzeige, wie zum Beispiel ein grafisches Touchscreen-Display oder eine andere Anzeige.
  • Das Ferntransportsystem 52 beinhaltet ein oder mehrere Backend-Serversysteme, die an dem speziellen Campus oder dem geografischen Standort, der vom Ferntransportsystem 52 bedient wird, Cloud-basiert, netzwerkbasiert oder resident sein können. Das Ferntransportsystem 52 kann mit einem Live-Berater, einem automatisierten Berater oder einer Kombination aus beidem besetzt sein. Das Ferntransportsystem 52 kann mit den Benutzervorrichtungen 54 und den autonomen Fahrzeugen 10a-10n kommunizieren, um Fahrten zu planen, autonome Fahrzeuge 10a-10n zu versetzen und dergleichen. In verschiedenen Ausführungsformen speichert das Ferntransportsystem 52 Kontoinformationen, wie zum Beispiel Teilnehmerauthentifizierungsdaten, Fahrzeugkennzeichen, Profilaufzeichnungen, Verhaltensmuster und andere entsprechende Teilnehmerinformationen.
  • Gemäß einem typischen Anwendungsfall-Arbeitsablauf kann ein registrierter Benutzer des Ferntransportsystems 52 über die Benutzervorrichtung 54 eine Fahrtanforderung erstellen. Die Fahrtanforderung gibt typischerweise den gewünschten Abholort des Fahrgastes (oder den aktuellen GPS-Standort), den gewünschten Zielort (der einen vordefinierten Fahrzeugstopp und/oder ein benutzerdefiniertes Passagierziel identifizieren kann) und eine Abholzeit an. Das Ferntransportsystem 52 empfängt die Fahrtanforderung, verarbeitet die Anforderung und sendet ein ausgewähltes der autonomen Fahrzeuge 10a-10n (wenn und sofern verfügbar), um den Passagier an dem vorgesehenen Abholort und zu gegebener Zeit abzuholen. Das Ferntransportsystem 52 kann zudem eine entsprechend konfigurierte Bestätigungsnachricht oder Benachrichtigung an die Benutzervorrichtung 54 erzeugen und senden, um den Passagier zu benachrichtigen, dass ein Fahrzeug unterwegs ist.
  • Wie ersichtlich, bietet der hierin offenbarte Gegenstand bestimmte verbesserte Eigenschaften und Funktionen für das, was als ein standardmäßiges oder Basislinien autonomes Fahrzeug 10 und/oder ein autonomes fahrzeugbasiertes Transportsystem 52 betrachtet werden kann. Zu diesem Zweck kann ein autonomes fahrzeugbasiertes Transportsystem modifiziert, erweitert oder anderweitig ergänzt werden, um die nachfolgend näher beschriebenen zusätzlichen Funktionen bereitzustellen.
  • Gemäß verschiedenen Ausführungsformen implementiert die Steuerung 34 ein autonomes Antriebssystem (ADS) 70, wie in 3 dargestellt. Das heißt, dass geeignete Soft- und/oder Hardwarekomponenten der Steuerung 34 (z. B. der Prozessor 44 und das computerlesbare Speichermedium 46) verwendet werden, um ein autonomes Antriebssystem 70 bereitzustellen, das in Verbindung mit dem Fahrzeug 10 verwendet wird.
  • In verschiedenen Ausführungsformen können die Anweisungen des autonomen Antriebssystems 70 je nach Funktion oder System gegliedert sein. Das autonome Antriebssystem 70 kann beispielsweise, wie in 3 dargestellt, ein Computersichtsystem 74, ein Positionierungssystem 76, ein Leitsystem 78 und ein Fahrzeugsteuersystem 80 beinhalten. Wie ersichtlich ist, können die Anweisungen in verschiedenen Ausführungsformen in beliebig viele Systeme (z. B. kombiniert, weiter unterteilt usw.) gegliedert werden, da die Offenbarung nicht auf die vorliegenden Beispiele beschränkt ist.
  • In verschiedenen Ausführungsformen synthetisiert und verarbeitet das Computersichtsystem 74 Sensordaten von den Sensorgeräten 40a-40n (1A) und prognostiziert Anwesenheit, Standort, Klassifizierung und/oder Verlauf von Objekten und Merkmalen der Umgebung des Fahrzeugs 10. In verschiedenen Ausführungsformen kann das Computersichtsystem 74 Informationen von mehreren Sensoren beinhalten, einschließlich, aber nicht beschränkt auf Kameras, Lidare, Radare und/oder eine beliebige Anzahl anderer Arten von Sensoren.
  • Das Positionierungssystem 76 verarbeitet Sensordaten zusammen mit anderen Daten, um eine Position (z. B. eine lokale Position in Bezug auf eine Karte, eine exakte Position in Bezug auf die Fahrspur einer Straße, Fahrzeugrichtung, Geschwindigkeit usw.) des Fahrzeugs 10 in Bezug auf die Umgebung zu ermitteln. Das Leitsystem 78 verarbeitet Sensordaten zusammen mit anderen Daten, um eine Strecke zu ermitteln, dem das Fahrzeug 10 folgen soll. Das Fahrzeugsteuerungssystem 80 erzeugt Steuersignale zum Steuern des Fahrzeugs 10 entsprechend der ermittelten Strecke.
  • In verschiedenen Ausführungsformen implementiert die Steuerung 34 maschinelle Lerntechniken, um die Funktionalität der Steuerung 34 zu unterstützen, wie z. B. Merkmalserkennung/Klassifizierung, Hindernisminderung, Routenüberquerung, Kartierung, Sensorintegration, Boden-Wahrheitsbestimmung und dergleichen.
  • Wie oben kurz erwähnt ist, ist ein gewisser Teil des Reinigungssystems 100 der 1A innerhalb des ADS 70 beinhaltet, wie beispielsweise das Reinigungssystem 82. In verschiedenen Ausführungsformen kommuniziert das Reinigungssystem 82 mit dem Computersichtsystem 74, dem Führungssystem 78 und/oder dem Fahrzeugsteuersystem 80, um Bilddaten von den Kamerageräten 31 zu erhalten, die Bilddaten zu verarbeiten, um so die Kameralinsendurchsicht zu verifizieren und/oder eine Reinheit/Unreinheit der Fahrzeugkarosserie 14 zu ermitteln, und/oder das Fahrzeug 10 basierend auf der ermittelten Durchsicht und/oder Unreinheit/Reinheit zu ermitteln.
  • Das Computersichtsystem 74 stellt dem Reinigungssystem 82 beispielsweise Bilddaten von den Kamerageräten 31 bereit. In verschiedenen Ausführungsformen verarbeitet das Reinigungssystem 82 die Bilddaten zum Evaluieren von Pixeln, die der Karosserie 14 des Fahrzeugs 10 zugewiesen sind, es berechnet einen Farbwert (Rot, Grün, Blau), der den Pixeln zugewiesen ist, und es ermittelt eine Unreinheit/Reinheit basierend auf dem Farbwert. Der Farbwert wird beispielsweise mit einem Farbwert verglichen, welcher einem reinen Fahrzeug zugewiesen ist, um so zu ermitteln, ob das Fahrzeug unrein/rein ist. In verschiedenen Ausführungsformen verarbeitet das Reinigungssystem 82 die Bilddaten weiter, um so eine Änderung in der Helligkeit der Pixel über einen Zeitraum zu ermitteln, und es stellt eine Durchsicht oder eine Blockade eines Kamerageräts 31 fest, welches die Bilddaten basierend auf der Änderung in der Helligkeit generiert.
  • In einem anderen Beispiel übermittelt das Reinigungssystem 82 die Empfehlung, zu einer Reinigungsstation zu fahren, an die Zielführung 78. Die Zielführung 78 wiederum ermittelt eine Strecke zur Reinigungsstation und/oder übermittelt Benachrichtigungsmeldungen an das Transportsystem 52 und/oder an die Benutzer des Fahrzeugs 10. In noch einem weiteren Beispiel kommuniziert das Reinigungssystem 82 direkt mit dem Fahrzeugsteuerung 80, um so ein oder mehrere Stellglieder des Stellgliedsystems 30 zu steuern, sodass das Fahrzeug 10 derart gesteuert wird, dass es autonom zu einer Reinigungsstation navigiert.
  • Unter jetziger Bezugnahme auf 4 und fortgesetzter Bezugnahme auf die 1A, 1B und 3, veranschaulicht ein Ablaufdiagramm ein Steuerverfahren 400, das vom Reinigungssystem 82 von 3 gemäß der vorliegenden Offenbarung ausgeführt werden kann. Wie angesichts der Offenbarung leicht zu verstehen, ist die Reihenfolge des Betriebs innerhalb des Verfahrens nicht auf die sequenzielle Ausführung, wie in 4 gezeigt, beschränkt, sondern kann in einer oder mehreren variierenden Reihenfolgen, wie anwendbar, und gemäß der vorliegenden Offenbarung ausgeführt werden. In verschiedenen Ausführungsformen kann das Verfahren 400 basierend auf einem oder mehreren vordefinierten Ereignissen zur Ausführung geplant werden und/oder kontinuierlich während des Betriebs des autonomen Fahrzeugs 10 ausgeführt werden.
  • In verschiedenen Ausführungsformen, kombiniert das Steuerverfahren zwei Verfahren zum Ermitteln einer Reinheit oder Unreinheit des autonomen Fahrzeugs. Die Unreinheit oder Reinheit kann beispielsweise basierend auf einer Blockade einer Linse von einem der Kamerageräte 31 und/oder basierend auf dem Schmutz auf der Oberfläche des autonomen Fahrzeugs 10, welcher einen RGB-Wert ändert, ermittelt werden. Wie zu erkennen ist, lassen sich die Verfahren, wie dargestellt, zusammen, oder aber separat oder als nur eines der beiden Verfahren implementieren, um die Reinheit oder Unreinheit des autonomen Fahrzeugs 10 zu ermitteln.
  • In einem Beispiel beginnt das Verfahren unter Umständen 405. Bilddaten werden von den Kamerageräten 31 in 410 empfangen. Helligkeitswerte werden in 420 für jeden Pixel in den Bilddaten berechnet. Die Helligkeit Werte werden dann in 430 evaluiert. Wenn zum Beispiel eine Anzahl X von Pixeln einen Helligkeitswert von weniger als einem definierten Schwellenwert haben oder eine Helligkeitsempfindlichkeit (oder Variation) über Pixel (benachbarten oder nicht benachbarten) in 430 vorhanden ist, wird festgelegt, dass das Kameragerät 31, welches die Bilddaten generiert hat, in 440 blockiert ist oder es ihm an Durchsicht fehlt (beispielsweise aufgrund von Schmutz auf der Linse); und es werden Signale generiert, um das autonome Fahrzeug 10 zu einer Reinigungsstation zu navigieren und/oder es werden beispielsweise einem Benutzer oder dem Fernsystem 52 in 450 Benachrichtigungen bereitgestellt. Danach kann das Verfahren in 460 enden.
  • Wenn die Helligkeitswerte in 430 für weniger als die Pixelzahl X über dem festgelegten Schwellenwert liegen, wird das Kameragerät 31, welches die Bilddaten generiert hat, als nicht blockiert oder durchsichtig festgelegt und die Bilddaten werden in 470 weiter verarbeitet.
  • Bei 470 werden die Bilddaten verarbeitet, um die Pixel gemäß der Fahrzeugkarosserie 14 zu extrahieren. Pixelstellen, die der Karosserie 14 entsprechen, können beispielsweise basierend auf der konfigurierten Stelle des Kamerageräts im Hinblick auf die Karosserie 14 vordefiniert sein. Für jeden Pixel an den definierten Pixelstellen wird ein RGB-Wert berechnet; und zwischen allen Pixel-berechneten RGB-Werten wird ein Delta berechnet.
  • Danach wird das Delta mit einem gespeicherten Delta verglichen, das einer Farbe der Karosserie 14 zugewiesen ist. In verschiedenen Ausführungsformen kann das gespeicherte Delta anfänglich erfasst und gespeichert sein, wie oben erläutert, wenn bekannt ist, dass das Fahrzeug 10 rein ist. Wie zu erkennen ist, kann das gespeicherte Delta mit der Zeit aktualisiert werden, um einem Ausbleichen oder einer Verfärbung der Fahrzeugkarosserie 14, beispielsweise durch Umwelteinflüsse, Rechnung zu tragen. Wenn sich die RGB-Werte in 480 von den gespeicherten Werten unterscheiden (oder nicht im entsprechenden Bereich liegen), wird festgelegt, dass das Fahrzeug 10 in 490 unrein ist; und es werden Signale generiert, um das autonome Fahrzeug 10 in eine Reinigungsstation zu navigieren und/oder es werden beispielsweise einem Benutzer oder einem Fernsystem 52 in 450 Benachrichtigungen bereitgestellt. Danach kann das Verfahren in 460 enden. Wenn die RGB-Werte jedoch gleich den gespeicherten Werten sind (oder in deren Bereich liegen), wird festgelegt, dass das Fahrzeug 10 in 500 rein ist; und das Verfahren kann in 460 enden.
  • Wie zu erkennen ist, können in verschiedenen Ausführungsformen die Schritte 420 bis 500 für jedes Kameragerät 31 im Fahrzeug 10 in einer Schleife geführt werden und in 450 nur die Signale generieren, wenn eine bestimmte Anzahl N an Kamerageräten 3 blockiert ist oder festlegen, dass das Fahrzeug 10 unrein ist.
  • Während mindestens eine exemplarische Ausführungsform in der vorstehenden ausführlichen Beschreibung dargestellt wurde, versteht es sich, dass es eine große Anzahl an Varianten gibt. Es versteht sich weiterhin, dass die exemplarische Ausführungsform oder die exemplarischen Ausführungsformen lediglich Beispiele sind und den Umfang, die Anwendbarkeit oder die Konfiguration dieser Offenbarung in keiner Weise einschränken sollen. Die vorstehende ausführliche Beschreibung stellt Fachleuten auf dem Gebiet vielmehr einen zweckmäßigen Plan zur Implementierung der exemplarischen Ausführungsform bzw. der exemplarischen Ausführungsformen zur Verfügung. Es versteht sich, dass verschiedene Veränderungen an der Funktion und der Anordnung von Elementen vorgenommen werden können, ohne vom Umfang der Offenbarung, wie er in den beigefügten Ansprüchen und deren rechtlichen Entsprechungen aufgeführt ist, abzuweichen.

Claims (10)

  1. Verfahren zur Steuerung eines autonomen Fahrzeugs, umfassend: das Empfangen von Bilddaten von einem Kameragerät, das mit dem autonomen Fahrzeug gekoppelt ist; das Berechnen, mithilfe eines Prozessors, eines Wertes basierend auf den Bilddaten; das Ermitteln, mithilfe eines Prozessors, einer der Optionen - Reinheit oder Unreinheit - des autonomen Fahrzeugs basierend auf dem berechneten Wert; und das selektive Generieren, mithilfe eines Prozessors, eines Signals an mindestens eine der Steuerungen des autonomen Fahrzeugs, um dieses zu einer Reinigungsstation zu navigieren und einen Benutzer basierend auf der ermittelten Option - Reinheit oder Unreinheit - des autonomen Fahrzeugs zu benachrichtigen.
  2. Verfahren nach Anspruch 1, worin das Berechnen des Wertes das Berechnen eines Farbwertes basierend auf den Bilddaten umfasst.
  3. System nach Anspruch 2, worin der Farbwert ein roter, grüner, blauer Wert ist.
  4. Verfahren nach Anspruch 2, worin das Ermitteln der einen Optionen - Reinheit oder Unreinheit - des autonomen Fahrzeugs auf einem Vergleich des Farbwertes mit einem gespeicherten Wert, der einer Karosserie des Fahrzeugs zugewiesen ist, basiert.
  5. Verfahren nach Anspruch 1, worin das Berechnen des Farbwertes das Berechnen eines Farbwertes für eine Vielzahl von Pixeln in den Bilddaten umfasst, und worin das Ermitteln der einen Optionen - Reinheit oder Unreinheit - des autonomen Fahrzeugs auf einem Vergleich der Farbwerte für die Vielzahl von Pixeln mit einem Schwellenwert basiert.
  6. Verfahren nach Anspruch 1, worin das Berechnen des Wertes das Berechnen eines Helligkeitswertes basierend auf den Bilddaten umfasst.
  7. Verfahren nach Anspruch 1, ferner umfassend das Ermitteln einer Durchsicht des Kamerageräts basierend auf dem Helligkeitswert.
  8. System zum Steuern eines autonomen Fahrzeugs, umfassend: ein nichtflüchtiges computerlesbares Medium, umfassend: ein erstes Modul, das dafür konfiguriert ist, mithilfe eines Prozessors Bilddaten von einem Kameragerät zu empfangen, welches mit dem autonomen Fahrzeug gekoppelt ist; ein zweites Modul, das dazu konfiguriert ist, mithilfe eines Prozessors einen Wert basierend auf den Bilddaten zu berechnen und eine Option - Reinheit oder Unreinheit des autonomen Fahrzeugs zu ermitteln, basierend auf dem berechneten Wert; und ein drittes Modul, das dafür konfiguriert ist, mithilfe eines Prozessors, selektiv ein Signal an mindestens eine der Steuerungen des autonomen Fahrzeugs zu generieren, um dieses zu einer Reinigungsstation zu navigieren, und um einen Benutzer basierend auf der ermittelten einen Option - Reinheit oder Unreinheit - des autonomen Fahrzeugs zu benachrichtigen.
  9. System nach Anspruch 8, worin das zweite Modul einen Farbwert als Bilddaten-basierten Wert berechnet.
  10. System nach Anspruch 9, worin der Farbwert ein roter, grüner, blauer Wert ist.
DE102018114596.9A 2017-06-19 2018-06-18 Systeme und verfahren zum reinigen eines fahrzeugs Withdrawn DE102018114596A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/627,307 2017-06-19
US15/627,307 US20180364728A1 (en) 2017-06-19 2017-06-19 Systems and methods for vehicle cleaning

Publications (1)

Publication Number Publication Date
DE102018114596A1 true DE102018114596A1 (de) 2018-12-20

Family

ID=64457563

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018114596.9A Withdrawn DE102018114596A1 (de) 2017-06-19 2018-06-18 Systeme und verfahren zum reinigen eines fahrzeugs

Country Status (3)

Country Link
US (1) US20180364728A1 (de)
CN (1) CN109151379A (de)
DE (1) DE102018114596A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019207036A1 (de) * 2019-05-15 2020-11-19 Volkswagen Aktiengesellschaft Verfahren und Steuereinrichtung zum automatischen Reinigen eines Kraftfahrzeugs
DE102019211667A1 (de) * 2019-08-02 2021-02-04 Zf Friedrichshafen Ag Detektieren von Verunreinigungen in einem autonomen Personentransportfahrzeug

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10416671B2 (en) * 2017-07-11 2019-09-17 Waymo Llc Methods and systems for vehicle occupancy confirmation
EP3893190A4 (de) * 2018-12-07 2021-12-29 Panasonic Intellectual Property Corporation of America Informationsverarbeitungsverfahren, informationsverarbeitungsvorrichtung und programm
CN111724013A (zh) * 2019-03-20 2020-09-29 北京嘀嘀无限科技发展有限公司 一种确定车辆洁净程度的方法和系统
US11209282B2 (en) * 2019-07-02 2021-12-28 Ford Global Technologies, Llc Vehicle cleanliness detection and carwash recommendation
CN110481514A (zh) * 2019-09-26 2019-11-22 广州市道诺电子科技有限公司 智控无人洗车系统及方法
JP7155090B2 (ja) * 2019-10-07 2022-10-18 本田技研工業株式会社 車両予約システム、及び車両予約方法
US11334985B2 (en) * 2019-10-25 2022-05-17 Robert Bosch Gmbh System and method for shared vehicle cleanliness detection
CN111241953B (zh) * 2020-01-03 2023-11-10 河北太行农牧供应链有限公司 洗消验证方法和装置、存储介质及电子装置
CN113581134B (zh) * 2020-04-30 2024-02-27 比亚迪股份有限公司 车辆及其清洁方法、装置以及存储介质和车载控制器
CN112109672A (zh) * 2020-08-10 2020-12-22 江苏悦达投资股份有限公司 一种洗车机器人系统及其控制方法
US20220250590A1 (en) * 2021-02-09 2022-08-11 Ford Global Technologies, Llc Systems And Methods To Wash A Vehicle In A Car Wash
JP2022150903A (ja) * 2021-03-26 2022-10-07 トヨタ自動車株式会社 運転支援方法、運転支援装置、運転支援システム及びコンピュータプログラム
CN112896102B (zh) * 2021-03-27 2022-08-05 湖南凌翔磁浮科技有限责任公司 一种轨道交通车辆的高效率智能吹扫方法、存储介质、终端及系统

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11332101B2 (en) * 2004-03-09 2022-05-17 Uusi, Llc Vehicle windshield cleaning system
US8376595B2 (en) * 2009-05-15 2013-02-19 Magna Electronics, Inc. Automatic headlamp control
US8370030B1 (en) * 2009-09-04 2013-02-05 Michael H Gurin System for a shared vehicle involving feature adjustment, camera-mediated inspection, predictive maintenance, and optimal route determination
DE102010049091A1 (de) * 2010-10-21 2012-04-26 Gm Global Technology Operations Llc (N.D.Ges.D. Staates Delaware) Verfahren zum Betreiben zumindest eines Sensors eines Fahrzeugs und Fahrzeug mit zumindest einem Sensor
DE102012016432B4 (de) * 2012-08-17 2014-03-06 Audi Ag Verfahren zum autonomen Fahren in einer Waschstraße und Kraftfahrzeug
US9488982B2 (en) * 2013-02-03 2016-11-08 Michael H Gurin Systems for a shared vehicle
US20140222298A1 (en) * 2013-02-03 2014-08-07 Michael H. Gurin Systems For a Shared Vehicle
US9409549B2 (en) * 2013-09-25 2016-08-09 Ford Global Technologies, Llc Autonomous vehicle window clearing
US20150203107A1 (en) * 2014-01-17 2015-07-23 Ford Global Technologies, Llc Autonomous vehicle precipitation detection
US20160371977A1 (en) * 2014-02-26 2016-12-22 Analog Devices, Inc. Apparatus, systems, and methods for providing intelligent vehicular systems and services
JP6374238B2 (ja) * 2014-07-01 2018-08-15 クラリオン株式会社 車載装置
CN104724000B (zh) * 2015-03-18 2017-04-12 观致汽车有限公司 洗车提醒装置及其方法
US9805519B2 (en) * 2015-08-12 2017-10-31 Madhusoodhan Ramanujam Performing services on autonomous vehicles
US9781361B2 (en) * 2015-09-01 2017-10-03 Delphi Technologies, Inc. Integrated camera, ambient light detection, and rain sensor assembly
JP6365477B2 (ja) * 2015-09-16 2018-08-01 トヨタ自動車株式会社 物体認識装置及び汚れ検出方法
US10040432B2 (en) * 2016-01-26 2018-08-07 GM Global Technology Operations LLC Systems and methods for promoting cleanliness of a vehicle
US10319157B2 (en) * 2016-03-22 2019-06-11 GM Global Technology Operations LLC System and method for automatic maintenance
US10218753B2 (en) * 2016-05-27 2019-02-26 GM Global Technology Operations LLC Video activation button
US10220817B2 (en) * 2016-07-18 2019-03-05 Uber Technologies, Inc. Sensor cleaning system for vehicles
CA2936854A1 (en) * 2016-07-22 2018-01-22 Edmond Helstab Methods and systems for assessing and managing asset condition
DE102016218012A1 (de) * 2016-09-20 2018-03-22 Volkswagen Aktiengesellschaft Verfahren für eine Datenverarbeitungsanlage zur Erhaltung eines Betriebszustands eines ersten autonomen Fahrzeugs sowie Verfahren für eine Datenverarbeitungsanlage zum Verwalten einer Mehrzahl autonomer Fahrzeuge
US9817400B1 (en) * 2016-12-14 2017-11-14 Uber Technologies, Inc. Vehicle servicing system
US11014561B2 (en) * 2017-02-01 2021-05-25 Magna Electronics Inc. Vehicle trailer hitch assist system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019207036A1 (de) * 2019-05-15 2020-11-19 Volkswagen Aktiengesellschaft Verfahren und Steuereinrichtung zum automatischen Reinigen eines Kraftfahrzeugs
DE102019211667A1 (de) * 2019-08-02 2021-02-04 Zf Friedrichshafen Ag Detektieren von Verunreinigungen in einem autonomen Personentransportfahrzeug

Also Published As

Publication number Publication date
US20180364728A1 (en) 2018-12-20
CN109151379A (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
DE102018114596A1 (de) Systeme und verfahren zum reinigen eines fahrzeugs
DE102018129066B4 (de) Systeme und verfahren für ungeschütztes linksabbiegen in situationen mit hohem verkehrsaufkommen in autonomen fahrzeugen
DE102018122459B4 (de) Fahrzeugsystem, entferntes fahrzeugassistenzsystem und comuterimplementiertes verfahren zum bereitstellen von fernunterstützung
DE102018132981B4 (de) Autonomes fahrsystem, computerimplementiertes verfahren und autonomes fahrzeug zur ampelzustandsbewertung
DE102018114600A1 (de) Systeme und verfahren zum reagieren auf einsatzfahrzeuge in einem autonomen fahrzeug
DE102018129048B4 (de) Verfahren zum durchführen einer autonomen fahrzeugbetriebsanalyse
DE102018121124A1 (de) Verfahren und Systeme zum Erzeugen von Echtzeit-Karteninformationen
DE102018129074A1 (de) Systeme und verfahren zum umfahren von hindernissen in autonomen fahrzeugen
DE102018130566A1 (de) Autonomer fahrzeugbetrieb mit automatisierter unterstützung
DE102018110153A1 (de) Systeme und verfahren zur hindernisvermeidung und wegplanung in autonomen fahrzeugen
DE102018122588A1 (de) Systeme und verfahren zur zusammenarbeit zwischen autonomen fahrzeugen
DE102018113007A1 (de) Trajektorienplaner zum autonomen fahren mittels bézier-kurven
DE102017130936A1 (de) Expertenmodus für Fahrzeuge
DE102018116001A1 (de) Verfahren und systeme zur erkennung des toten winkels in einem autonomen fahrzeug
DE102018116108A1 (de) Kalibrierungsprüfverfahren für den betrieb von autonomen fahrzeugen
DE102019110184A1 (de) Systeme und verfahren zum autonomen fahren unter verwendung eines auf neuronalen netzwerken basierten fahrerlernens auf tokenizierten sensoreingaben
DE102018116107A1 (de) Kalibrierungsverfahren für den betrieb von autonomen fahrzeugen
DE102018121122A1 (de) Systeme und Verfahren zur Fahrzeugsignalleuchtenerfassung
DE102018105693A1 (de) Strassenbau-Erfassungssysteme und -Verfahren
DE102018129064A1 (de) Systeme und verfahren zur geschwindigkeitsanpassung für einen bevorstehenden spurwechsel in autonomen fahrzeugen
DE102018117429A1 (de) Klassifizierungsverfahren und -systeme
DE102018110086A1 (de) Automatisierte routenüberquerung eines fahrzeugs
DE102018115399A1 (de) Systeme und verfahren zur steuerung des sichtfelds einer sensorvorrichtung
DE102019107485A1 (de) Bewegung eines autonomen fahrzeugs um stationäre fahrzeuge herum
DE102018132982A1 (de) Systeme und verfahren zum ausrichten einer trägheitsmesseinheit in einem fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee