DE102019104357A1 - Kamera mit reinigungssystem - Google Patents

Kamera mit reinigungssystem Download PDF

Info

Publication number
DE102019104357A1
DE102019104357A1 DE102019104357.3A DE102019104357A DE102019104357A1 DE 102019104357 A1 DE102019104357 A1 DE 102019104357A1 DE 102019104357 A DE102019104357 A DE 102019104357A DE 102019104357 A1 DE102019104357 A1 DE 102019104357A1
Authority
DE
Germany
Prior art keywords
vehicle
computer
cameras
processor
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019104357.3A
Other languages
English (en)
Inventor
Taneshia Turner
Venkatesh Krishnan
Segundo Baldovino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102019104357A1 publication Critical patent/DE102019104357A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/56Cleaning windscreens, windows or optical devices specially adapted for cleaning other parts or devices than front windows or windscreens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B08CLEANING
    • B08BCLEANING IN GENERAL; PREVENTION OF FOULING IN GENERAL
    • B08B3/00Cleaning by methods involving the use or presence of liquid or steam
    • B08B3/02Cleaning by the force of jets or sprays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/01Arrangements or apparatus for facilitating the optical investigation
    • G01N21/15Preventing contamination of the components of the optical system or obstruction of the light path
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0006Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means to keep optical surfaces clean, e.g. by preventing or removing dirt, stains, contamination, condensation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/004Arrangements for holding or mounting articles, not otherwise provided for characterised by position outside the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/01Arrangements or apparatus for facilitating the optical investigation
    • G01N21/15Preventing contamination of the components of the optical system or obstruction of the light path
    • G01N2021/155Monitoring cleanness of window, lens, or other parts
    • G01N2021/157Monitoring by optical means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Offenbarung stellt eine Kamera mit Reinigungsfunktion bereit. Ein Computer in einem Fahrzeug beinhaltet einen Prozessor, der programmiert ist, um ein Objekt in der Nähe des Fahrzeugs zu erkennen. Der Prozessor ist ferner programmiert, um mindestens eine von einer Vielzahl von Kameras aus einem abgeschalteten Zustand anzuschalten und das Fahrzeug gemäß einer Objektart, die mit Daten von der mindestens einen Kamera bestimmt wird, zu betreiben.

Description

  • TECHNISCHES GEBIET
  • Die Offenbarung betrifft das Gebiet der Fahrzeugkameras und insbesondere ein System zum Reinigen von Fahrzeugkameras.
  • ALLGEMEINER STAND DER TECHNIK
  • Autonome Fahrzeuge nutzen eine Vielzahl von Sensoren, um die Objektarten entlang eines Fahrtwegs zu erkennen und zu bestimmen, einschließlich Radar, Kameras und LiDAR. In einigen Fällen kann der das Fahrzeug steuernde Computer ein Objekt auf Grundlage von Radardaten erkennen. Jedoch unterstützt das Radar üblicherweise nicht die Erkennung einer Objektart. Ferner ist es ein Problem, dass der das Fahrzeug steuernde Computer möglicherweise nicht in der Lage ist, die Objektart auf Grundlage von Daten von anderen Sensoren, wie etwa Sensoren, die ständig und/oder periodisch Daten für die Fahrzeugsteuerung bereitstellen, z. B. Bilddaten von Kameras und LiDARs, zu bestimmen.
  • KURZDARSTELLUNG
  • Ein Computer in einem Fahrzeug beinhaltet einen Prozessor und einen Speicher, wobei der Speicher durch den Prozessor ausführbare Anweisungen speichert, sodass der Prozessor programmiert ist, um ein Objekt in der Nähe des Fahrzeugs zu erkennen. Die Anweisungen können ferner Anweisungen beinhalten, um mindestens eine von einer Vielzahl von Kameras aus einem abgeschalteten Zustand anzuschalten und das Fahrzeug gemäß einer Objektart, die mit Daten von der mindestens einen der Vielzahl von Kameras bestimmt wird, zu betreiben.
  • Die Anweisungen können ferner Anweisungen beinhalten, um zu bestimmen, dass der Prozessor die Objektart auf Grundlage von Sensoren, die zu einem Zeitpunkt des Erkennens des Objekts arbeiten, nicht bestimmen kann.
  • Die Anweisungen können ferner Anweisungen beinhalten, um das Fahrzeug zu stoppen, wenn bestimmt wird, dass der Prozessor die Objektart nicht bestimmen kann.
  • Die Anweisungen können ferner Anweisungen beinhalten, um einen Server aufzufordern, die Objektart auf Grundlage der Daten von der mindestens einen der Vielzahl von Kameras zu bestimmen, eine Nachricht von dem Server zu empfangen, die angibt, dass der Server die Objektart nicht bestimmen kann; und das Fahrzeug in einem gestoppten Zustand zu halten.
  • Die Sensoren können ein erstes Sichtfeld aufweisen und die Vielzahl von Kameras kann ein zweites Sichtfeld aufweisen, das einen Bereich zwischen dem ersten Sichtfeld und dem Fahrzeug beinhaltet.
  • Die Kameras können sich unter einer Dachlinie des Fahrzeugs befinden.
  • Eine der Kameras kann sich an einem von einem Seitenspiegel des Fahrzeugs, einem vorderen Kühlergrillbereich des Fahrzeugs und einem hinteren Nummernschildbereich des Fahrzeugs befinden.
  • Die Anweisungen können ferner Anweisungen beinhalten, um einen Server aufzufordern, die Objektart auf Grundlage der Daten von der mindestens einen der Vielzahl von Kameras zu bestimmen; und die Objektart von dem Server zu empfangen.
  • Die Anweisungen können ferner Anweisungen beinhalten, um eine oder mehrere der Vielzahl von Kameras zu reinigen.
  • Die Anweisung, das Objekt in der Nähe des Fahrzeugs zu erkennen, kann Anweisungen beinhalten, um zu bestimmen, dass sich das Objekt innerhalb einer vorbestimmten Entfernung von einem Weg des Fahrzeugs befindet.
  • Ein System beinhaltet eine Vielzahl von Kameras, die an einem Fahrzeug angebracht sein können, und einen Computer mit einem Prozessor und einem Speicher, wobei der Speicher durch den Prozessor ausführbare Anweisungen speichert, um ein Objekt in der Nähe des Fahrzeugs zu erkennen, mindestens eine der Vielzahl von Kameras aus einem abgeschalteten Zustand anzuschalten und das Fahrzeug gemäß der Obj ektart, die mit Daten von der mindestens einen der Vielzahl von Kameras bestimmt wird, zu betreiben.
  • Das System kann ferner Sensoren beinhalten und die Anweisungen können ferner Anweisungen beinhalten, um die Objektart auf Grundlage von Daten von den Sensoren zu bestimmen.
  • Die Anweisungen können ferner Anweisungen beinhalten, um das Fahrzeug zu stoppen, wenn bestimmt wird, dass der Prozessor die Objektart nicht bestimmen kann.
  • Das System kann ferner einen Server beinhalten, der programmiert ist, um eine Aufforderung von dem Prozessor zu empfangen, die Objektart auf Grundlage der Kameradaten zu bestimmen, die Objektart zu bestimmen; und die Objektart an den Prozessor zu senden.
  • Die Sensoren können ein erstes Sichtfeld aufweisen und die Vielzahl von Kameras kann ein zweites Sichtfeld aufweisen, das einen Bereich zwischen dem ersten Sichtfeld und dem Fahrzeug beinhaltet.
  • Eine der Vielzahl von Kameras kann an einem von einem Seitenspiegel des Fahrzeugs, einem vorderen Kühlergrillbereich des Fahrzeugs und einem hinteren Nummernschildbereich des Fahrzeugs angebracht werden.
  • Das System kann ferner eine Reinigungseinrichtung beinhalten und die Anweisungen können Anweisungen beinhalten, um die Reinigungseinrichtung anzuschalten, um mindestens eine der Kameras zu reinigen.
  • Ein System kann eine Bildaufnahmeeinrichtung und eine Verarbeitungseinrichtung beinhalten, die programmiert ist, um ein Objekt in der Nähe eines Fahrzeugs zu erkennen, die Bildaufnahmeeinrichtung aus einem abgeschalteten Zustand anzuschalten und das Fahrzeug gemäß einer Objektart, die mit Daten von der Bildaufnahmeeinrichtung bestimmt wird, zu betreiben.
  • Das System kann ferner Sensoren beinhalten und die Anweisungen können ferner Anweisungen beinhalten, um zu bestimmen, dass die Verarbeitungseinrichtung die Objektart auf Grundlage der Sensoren nicht bestimmen kann, das Fahrzeug auf Grundlage des Bestimmens, dass die Verarbeitungseinrichtung die Objektart nicht bestimmen kann, zu stoppen und eine Reinigungseinrichtung anzuschalten, um die Bildaufnahmeeinrichtung zu reinigen.
  • Die Anweisungen können ferner Anweisungen beinhalten, um einen Server aufzufordern, die Objektart auf Grundlage von Daten von der Bildaufnahmeeinrichtung zu bestimmen, eine Nachricht von dem Server zu empfangen, die angibt, dass der Server die Objektart nicht bestimmen kann; und das Fahrzeug in einem gestoppten Zustand zu halten.
  • Figurenliste
    • 1 ist ein Blockdiagramm für ein beispielhaftes System zum Identifizieren eines Objekts in der Nähe eines Fahrzeugs.
    • 2 veranschaulicht ein beispielhaftes Fahrzeug und einen Fahrzeugfahrtweg mit einem Objekt in der Nähe des Fahrzeugs.
    • 3 ist eine isometrische Ansicht des Fahrzeugs, das erste Sensoren und zweite Kameras beinhaltet.
    • 4 veranschaulicht eine beispielhafte Düse, die neben einer zweiten Kamera angeordnet ist.
    • 5A und 5B sind aufgeschnittene perspektivische Ansichten eines beispielhaften Fahrzeugs, die Sichtfelder für erste Sensoren und zweite Kameras veranschaulichen.
    • 6 ist eine Draufsicht auf das Fahrzeug der 5A und 5B, die die Sichtfelder für erste Sensoren und zweite Kameras veranschaulicht.
    • 7 ist eine Seitenansicht des Fahrzeugs der 5A, 5B und 6, die Sichtfelder für erste Sensoren und zweite Kameras veranschaulicht.
    • 8 ist ein Diagramm eines beispielhaften Prozesses zum Ergänzen von ersten Daten von ersten Sensoren mit zweiten Daten von zweiten Kameras.
  • DETAILLIERTE BESCHREIBUNG
  • 1 veranschaulicht ein beispielhaftes System 100 zum Betreiben eines Fahrzeugs 101. Das Fahrzeug 101 beinhaltet einen Computer 105, der programmiert ist, um das Fahrzeug 101 zu betreiben. Der Computer 105 beinhaltet einen oder mehrere Prozessoren und einen Speicher. Der Speicher speichert Anweisungen, die durch den einen oder die mehreren Prozessoren ausführbar sind. Wie nachstehend erörtert, ist der Computer 105 programmiert, um ein Objekt 160 in der Nähe des Fahrzeugs 101 auf Grundlage von Radardaten 115, durch durch ein Radar 110 erfasst werden, zu erkennen. Der Computer 105 ist ferner programmiert, um eine Art eines Objekts 160 (d. h. eine „Objektart“) in der Nähe des Fahrzeugs 101 auf Grundlage von ersten Daten 125 von ersten Sensoren 120 zu bestimmen. Eine Objektart ist eine Klassifizierung des Objekts auf Grundlage von physischen Eigenschaften, wie etwa Größe, Form, Farbe, Bewegungsarten usw. Falls der Computer 105 die Objektart auf Grundlage der ersten Daten 125 nicht bestimmen kann, ist der Computer 105 programmiert, um zweite Kameras 130 zu reinigen und anzuschalten, zweite Daten 135 zu erfassen und die zweiten Daten 135 an einen Server 145 zu senden. Der Computer 105 „kann die Objektart nicht bestimmen“ bedeutet, dass der Computer 105 die Objektart nach Ausführung der Programmierung für Objektartbestimmung nicht bestimmen kann. Der Server 145 bestimmt dann die Art des Objekts 160 auf Grundlage der zweiten Daten 135 oder versucht diese zu bestimmen. In einigen Fällen kann der Server 145 zusätzlich die ersten Daten 125 empfangen und nutzen, um die Art des Objekts 160 zu bestimmen oder dies zu versuchen.
  • Wenn der Computer 105 das Fahrzeug 101 betreibt, ist das Fahrzeug 101 ein „autonomes“ Fahrzeug 101. Der Computer 105 beinhaltet Computercode (Software) und kann ferner Firmware oder dedizierte Hardware zum Steuern des Fahrzeugs 101 beinhalten.
  • Für die Zwecke dieser Offenbarung wird der Ausdruck „autonomes Fahrzeug“ zum Verweis auf ein Fahrzeug 101 verwendet, das in einem vollständig autonomen Modus betrieben wird. Ein vollständig autonomer Modus ist als ein Modus definiert, in dem jedes von dem Antrieb (typischerweise über einen Antriebsstrang, der einen Elektromotor und/oder Verbrennungsmotor beinhaltet), dem Bremsen und Lenken des Fahrzeugs 101 durch den Computer 105 gesteuert wird. Ein halbautonomer Modus ist ein Modus, in dem mindestens eines von dem Antrieb (typischerweise über einen Antriebsstrang, der einen Elektromotor und/oder Verbrennungsmotor beinhaltet), dem Bremsen und Lenken des Fahrzeugs 101 mindestens teilweise durch den Computer 105 und nicht durch einen menschlichen Fahrzeugführer gesteuert werden.
  • Während des autonomen Betriebs des Fahrzeugs 101 ist der Computer 105 programmiert, um Radardaten 115 von dem Radar 110 und erste Daten 125 von ersten Sensoren 120 zu erfassen. Das Radar 110 ist während des vollständig autonomen Modus üblicherweise aktiv. Die ersten Sensoren 120 beinhalten LiDAR und Kameras, die ebenfalls üblicherweise während des vollständig autonomen Modus aktiv sind. Aktiv bedeutet, dass das Radar 110 und die ersten Sensoren 120 usw. unter Strom stehen, angeschaltet sind und dem Computer 105 mindestens einmal pro Minute jeweils Radardaten 115 und erste Daten 125 bereitstellen. Üblicherweise stellen das Radar 110 und die ersten Sensoren 120 dem Computer 105 mehrere Male pro Sekunde jeweils Radardaten 115 und erste Daten 125 bereit. Die Radardaten 115 beinhalten Daten bezüglich einer jeweiligen Position für Objekte 160 im Weg des Fahrzeugs 101. Die ersten Daten 125 beinhalten Daten bezüglich der Umgebung, in der das Fahrzeug 101 betrieben wird, einschließlich Bilddaten hinsichtlich Objekten 160 in der Nähe des Fahrzeugs 101. Die Objekte 160 beinhalten unbewegliche Objekte jeglicher Art, wie etwa Verkehrszeichen, Autos und Schmutz und beinhalten ferner bewegliche Objekte jeglicher Art, wie etwa Menschen oder Tiere.
  • Auf Grundlage der ersten Daten 125 ist der Computer 105 programmiert, um eine Art des Objekts 160 unter Verwendung von an sich bekannten Bilderkennungstechniken zu bestimmen oder dies zu versuchen. Die Art eines Objekts 160 im hierin verwendeten Sinne ist eine erkennbare Kategorie von beweglichen Objekten oder unbeweglichen Objekten, wie etwa ein Stein, eine Plastiktüte, eine Zeitung, ein Lastwagen, eine Person, ein Hund usw. Zum Beispiel kann der Computer 105 eine Tabelle mit Arten von Objektarten pflegen. Unter Verwendung bekannter Bilderkennungstechniken kann der Computer 105 bestimmen, dass das Objekt 160 mit einer der Objektarten in der Tabelle übereinstimmt.
  • In einigen Fällen kann es sein, dass der Computer 105 nicht in der Lage ist, die Art des Objekts 160 auf Grundlage der ersten Daten 125 von den ersten Sensoren 120 zu bestimmen. Zum Beispiel kann das Objekt 160, wie nachstehend ausführlicher beschrieben wird, durch das Radar 110 erkannt werden, befindet sich aber möglicherweise nicht in dem Sichtfeld eines der ersten Sensoren 120. In diesem Fall beinhalten die ersten Daten 125 das Objekt 160 nicht und der Computer 105 kann die Art des Objekts 160 nicht bestimmen. In einigen Fällen kann es sein, dass die ersten Daten 125 nicht ausreichend deutlich sind oder nur einen Teil des Objekts 160 beinhalten, sodass der Computer 105 die Art des Objekts 160 nicht bestimmen kann.
  • In diesen Fällen, wenn der Computer 105 eine Objektart nicht bestimmen kann, ist der Computer 105 programmiert, um das Fahrzeug 101 zu stoppen. Der Computer 105 ist ferner programmiert, um die zweiten Kameras 130 anzuschalten. Die zweiten Kameras 130 erfassen zweite Daten 135, die verwendet werden, um die Art des Objekts 160 in der Nähe des Fahrzeugs 101 zu bestimmen, wenn die Art des Objekts 160 nicht auf Grundlage der ersten Daten 125 bestimmt werden kann. Die zweiten Kameras 130 beinhalten Kameras und/oder LiDAR, die sich am Fahrzeug 101 befinden, um zweite Daten 135 zu erfassen, die sich nicht innerhalb des Sichtfelds der ersten Sensoren 120 befinden. Der Computer 105 ist ferner programmiert, um die zweiten Daten 135 zur Auswertung an den Server 145 zu senden. Der Computer 105 ist ferner programmiert, um Daten und Anweisungen von dem Server 145 zu empfangen. Auf Grundlage der Daten und Anweisungen von dem Server 145 kann der Computer 105 bestimmen, ob der Betrieb des Fahrzeugs 101 neu gestartet werden soll oder ob der Betrieb des Fahrzeugs 101 eingestellt werden soll (d. h. das Fahrzeug 101 wird in einem gestoppten Zustand gehalten).
  • Der Computer 105 ist im Allgemeinen zur Kommunikation auf einem Netzwerk des Fahrzeugs 101 programmiert, das z. B. einen bekannten Kommunikationsbus beinhaltet. Über das Netzwerk, den Bus und/oder andere drahtgebundene oder drahtlose Mechanismen (z. B. ein drahtgebundenes oder drahtloses lokales Netzwerk in dem Fahrzeug 101) kann der Computer 105 Nachrichten an verschiedene Vorrichtungen in einem Fahrzeug 101 übertragen und/oder Nachrichten von den verschiedenen Vorrichtungen empfangen, z. B. Steuerungen, Aktoren, Sensoren usw., einschließlich der ersten Sensoren 120. Zusätzlich oder alternativ kann in Fällen, bei denen der Computer 105 tatsächlich mehrere Vorrichtungen umfasst, das Fahrzeugnetzwerk zur Kommunikation zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung als der Computer 105 dargestellt sind. Zusätzlich kann der Computer 105 programmiert sein, um mit einem Netzwerk zu kommunizieren, das verschiedene drahtgebundene und/oder drahtlose Netzwerktechnologien beinhalten kann, z. B. Mobilfunk, Bluetooth®, Bluetooth® Low Energy (BLE), drahtgebundene und/oder drahtlose Paketnetzwerke usw.
  • Das Fahrzeug 101 beinhaltet eine Vielzahl von Fahrzeugkomponenten 140. Jede Fahrzeugkomponente 140 beinhaltet eine oder mehrere Hardwarekomponenten, die dazu ausgelegt sind, eine mechanische Funktion oder einen mechanischen Vorgang durchzuführen - wie etwa das Fahrzeug bewegen, das Fahrzeug 101 verlangsamen oder stoppen, das Fahrzeug 101 lenken usw. Nicht einschränkende Beispiele von Fahrzeugkomponenten 140 beinhalten eine Antriebskomponente (die z. B. einen Verbrennungsmotor und/oder einen Elektromotor usw. beinhaltet), eine Getriebekomponente, eine Lenkkomponente (die z. B. eines oder mehrere von einem Lenkrad, einer Zahnstange usw. beinhalten kann), eine Bremskomponente, eine Einparkhilfekomponente, eine Komponente für adaptive Geschwindigkeitsregelung, eine adaptive Lenkkomponente, einen bewegbaren Sitz und dergleichen. Im hierin verwendeten Sinne bedeutet „der Computer 105 betreibt das Fahrzeug 101“, dass der Computer 105 Anweisungen in einem Fahrzeugnetzwerk oder Bus an die Fahrzeugkomponenten 140 sendet, um Fahrzeugvorgänge, wie etwa Führen des Fahrzeugs 101 entlang eines Wegs, Parken des Fahrzeugs 101, Stoppen des Fahrzeugs 101 usw., durchzuführen.
  • Die ersten Sensoren 120 beinhalten erste Kameras und erstes LiDAR, die üblicherweise während des vollständig autonomen Modus des Fahrzeugs 101 aktiv sind und dem Computer 105 erste Daten 125 bereitstellen. Wie oben angemerkt, bedeutet „aktiv“ während des vollständig autonomen Modus, dass sie unter Strom stehen, angeschaltet sind und dem Computer 105 mindestens einmal pro Minute jeweilige Daten bereitstellen. Die ersten Daten 125 können Darstellungen von Objekten 160 in der Nähe des Fahrzeugs 101, Straßen und andere Merkmale der Umgebung, in der das Fahrzeug 101 gerade fährt, beinhalten. Im Allgemeinen können die ersten Daten 125 beliebige Daten beinhalten, die durch die ersten Sensoren 120 erhoben werden und können ferner Daten beinhalten, die aus solchen Daten berechnet werden.
  • Die zweiten Kameras 130 sind während des autonomen Betriebs des Fahrzeugs 101 üblicherweise in einem abgeschalteten Zustand. Dass die zweiten Kameras in einem abgeschalteten Zustand sind bedeutet, dass die zweiten Kameras 130 dem Computer 105 nicht mindestens einmal pro Minute die zweiten Daten 135 bereitstellen und/oder dass der Computer 105 die zweiten Daten 135 nicht nutzt, um das Fahrzeug 101 zu steuern.
  • Üblicherweise sind die zweiten Kameras 130 Kameras, die sich an dem Fahrzeug 101 befinden und unter einer Dachlinie des Fahrzeugs 101 positioniert sind, um ein Sichtfeld aufzuweisen, das Bereiche in der Nähe des Fahrzeugs 101 beinhaltet, die nicht im Sichtfeld der ersten Sensoren 120 beinhaltet sind. Zum Beispiel kann das Fahrzeug 101 vier zweite Kameras 130 beinhalten, eine an einem vorderen Ende des Fahrzeugs 101, eine an einem hinteren Ende des Fahrzeugs 101 und eine jeweils an jedem von dem linken und rechten Seitenspiegel angebracht.
  • Die zweiten Daten 135 sind Bilddaten, die durch die zweiten Kameras 130 aufgenommen werden und dem Computer 105 bereitgestellt werden. Der Computer 105 erfasst die zweiten Daten 135 und überträgt die zweiten Daten 135 zur Auswertung an den Server 145.
  • Der Server 145 ist ein Computer, der programmiert ist, um unter Verwendung von an sich bekannten Bilderkennungstechniken die zweiten Daten 135 zu empfangen und auszuwerten. Auswerten der zweiten Daten 135 im hierin verwendeten Sinne bedeutet, zu bestimmen, ob die zweiten Daten 135 ausreichend sind, um die Art eines Objekts 160, das durch die Daten dargestellt wird, zu bestimmen, und um die Art des Objekts 160 zu bestimmen, falls die Daten ausreichend sind. Die Daten sind „ausreichend, um die Art eines Objekts 160, das durch die Daten dargestellt wird, zu bestimmen“ im hierin verwendeten Sinne bedeutet, dass „der Server 145 in der Lage war, die Art des Objekts 160 auf Grundlage der zweiten Daten 135 unter Verwendung von Programmierung, die die Bilderkennungstechniken implementiert, zu bestimmen“. „Bestimmen der Art des Objekts“ bedeutet Bestimmen, dass die zweiten Daten 135 mit einer gespeicherten Objektart übereinstimmen. Zum Beispiel kann der Server 145 eine Tabelle mit bekannten Objektarten pflegen und die zweiten Daten 135 unter Verwendung von Bilderkennungstechniken mit den Objekten in der Tabelle mit den bekannten Objektarten vergleichen. Falls eine Übereinstimmung gefunden wird, hat der Server 145 die Art des Objekts 160 bestimmt. Der Server 145 ist ferner programmiert, um auf Grundlage der Ergebnisse der Auswertung eine Nachricht an den Computer 105, die angibt, ob die Art des Objekts 160 bestimmt werden konnte, die Art des Objekts 160 und/oder Anweisungen zum Betreiben des Fahrzeugs 101 auf Grundlage der zweiten Daten 135 zu senden.
  • Das Netzwerk 150 stellt einen oder mehrere Mechanismen dar, anhand derer das Fahrzeug 101 und der Server 145 miteinander kommunizieren, und es kann einer oder mehrere von verschiedenen drahtgebundenen oder drahtlosen Kommunikationsmechanismen sein, einschließlich einer beliebigen gewünschten Kombination aus drahtgebundenen (z. B. Kabel und Leitfaser) und/oder drahtlosen (z. B. Mobilfunk, drahtlos, Satellit, Mikrowelle und Funkfrequenz) Kommunikationsmechanismen und einer beliebigen gewünschten Netzwerktopologie (oder Topologien, wenn mehrere Kommunikationsmechanismen verwendet werden). Beispielhafte Kommunikationsnetzwerke beinhalten drahtlose Kommunikationsnetzwerke (z. B. unter Verwendung von einem oder mehreren von Mobilfunk, Bluetooth®, IEEE 802.11 usw.), Local Area Networks (LAN) und/oder Wide Area Networks (WAN), einschließend das Internet, die Datenkommunikationsdienste bereitstellen.
  • Die Arten der drahtlosen Kommunikation können eines oder mehrere von Mobilfunk, Bluetooth®, IEEE 802.11 (typischerweise Wi-Fi®), dezidierten Nahbereichskommunikationen (DSRC), Zweiwegesatellit (z. B. Notfalldienste), Einwegesatellit (z. B. Empfang von digitalen Audiofunkübertragungen), AM/FM Radio usw. beinhalten.
  • 2 veranschaulicht ein beispielhaftes Fahrzeug 101, das entlang eines Fahrtwegs 170 fährt. Ein Objekt 160 entlang des Fahrtwegs kann sich in der Nähe des Fahrzeugs 101 befinden. Zum Beispiel kann ein festgelegter Bereich in der Nähe des Fahrzeugs 101 einen Bereich innerhalb einer vorbestimmten Entfernung des Fahrzeugs 101 (z. B. Radius von einem Punkt im Fahrzeug 101) und/oder innerhalb einer vorbestimmten Entfernung des Fahrtwegs 170 des Fahrzeugs 101 bezeichnen. Die vorbestimmte Entfernung zum Fahrtweg 170 kann entlang eines kürzesten geradlinigen Wegs 172 gemessen werden. Der kürzeste geradlinige Weg 172 ist ein Weg zwischen dem Fahrtweg 170 und dem Objekt 160, der senkrecht zum Fahrtweg 170 ist.
  • Die vorbestimmte Entfernung kann eine festgelegte Entfernung, wie etwa 10 Meter, sein. Zusätzlich oder alternativ kann die vorbestimmte Entfernung von der Richtung des Objekts 160 vom Fahrzeug 101 usw. abhängen. Zum Beispiel kann die festgelegte Entfernung innerhalb von zwei Metern vom Fahrzeug 101 auf jeder Seite des Fahrzeugs 101 und/oder innerhalb von 10 Metern vom Fahrtweg des Fahrzeugs 101 liegen. Zusätzlich kann der Computer 105 zum Beispiel dann, wenn das Fahrzeug 101 vorwärts fährt, bestimmen, dass Objekte 160 hinter dem Fahrzeug 101 nicht in der Nähe des Fahrzeugs 101 sind, sogar wenn sie sich innerhalb der festgelegten Entfernung befinden.
  • Als weiteres Beispiel kann ein Bereich in der Nähe zum Fahrzeug 101 teilweise auf Grundlage des Sichtfelds der ersten Sensoren 120 festgelegt werden. Zum Beispiel kann „in der Nähe des Fahrzeugs“ als eine Kombination des Sichtfelds der ersten Sensoren 120 (siehe 5A, 5B, 6 und 7) innerhalb einer vorbestimmten Entfernung vom Fahrzeug 101 und innerhalb einer vorbestimmten Entfernung von dem Weg des Fahrzeugs 101 definiert werden.
  • Der Fahrtweg 170 des Fahrzeugs 101 im hierin verwendeten Sinne ist ein Weg, entlang dem der Computer 105 das Fahrzeug 101 zu führen beabsichtigt. Der Computer 105 kann den Fahrtweg 170 z. B. auf Grundlage einer aktuellen Position des Fahrzeugs 101 und eines Ziels des Fahrzeugs 101 bestimmen.
  • 3 veranschaulicht ein beispielhaftes Fahrzeug 101. Das Fahrzeug 101 beinhaltet eine Vielzahl von Radars 110. Das Fahrzeug 101 kann eine Sensorbaugruppe 200 auf einer Oberseite des Fahrzeugs 101 beinhalten. Die Sensorbaugruppe 200 kann eine Vielzahl von ersten Sensoren 120 beinhalten. In einigen Fällen kann die Sensorbaugruppe 200 ferner ein oder mehrere Radars 110 beinhalten.
  • Das Fahrzeug 101 kann ferner eine oder mehrere zweite Kameras 130 beinhalten. In einem Beispiel kann das Fahrzeug 101 vier zweite Kameras 130 beinhalten. Die vier zweiten Kameras 130 können sich unter der Dachlinie 206 des Fahrzeugs 101 jeweils am vorderen Ende 201 des Fahrzeugs 101, am hinteren Ende 202 des Fahrzeugs 101 und an jedem von dem linken und rechten Seitenspiegel 205 befinden. Die Dachlinie 206 ist eine Ebene, an der eine Karosserie des Fahrzeugs 101 von der Oberseite des Fahrzeugs 101 zu den Seiten, der Front oder dem Heck des Fahrzeugs 101 übergeht.
  • Zum Beispiel kann sich eine der zweiten Kameras 130 in einem Kühlergrillbereich am vorderen Ende 201 des Fahrzeugs 101 befinden und kann sich eine zweite Kamera 130 in einem Nummernschildbereich am hinteren Ende 202 des Fahrzeugs 101 befinden, wie in 3 gezeigt ist. Zwei zusätzliche zweite Kameras können sich jeweils an dem linken und rechten Seitenspiegel 205 befinden. Wie nachstehend genauer beschrieben wird, können die zweiten Kameras 130 positioniert sein, um ein Sichtfeld in einem Bereich in der Nähe des Fahrzeugs 101 aufzuweisen, der zumindest teilweise nicht im Sichtfeld der ersten Sensoren 120 beinhaltet ist.
  • Das Fahrzeug 101 kann eine Reinigungseinrichtung beinhalten, die einen Fluidbehälter 220, eine Pumpe 225, Fluidleitungen 230 und Düsen 235 beinhalten kann. Der Fluidbehälter 220 kann Waschwasser enthalten, das auf die zweiten Kameras 130 gesprüht wird. Der Fluidbehälter 220 kann über die Fluidleitung 230 mit einer Pumpe 225 in Fluidverbindung stehen. Die Pumpe 225 kann das Waschfluid von dem Fluidbehälter 220 durch Fluidleitungen 230 und weiter durch Düsen 235 leiten, um das Waschfluid auf z. B. die zweiten Kameras 130 zu sprühen.
  • 4 veranschaulicht eine Düse 235, die neben einer zweiten Kamera 130 angeordnet ist. Die Düse 235 ist angeordnet, um Waschfluid auf eine Linse oder Abdeckung der zweiten Kamera 130 zu verteilen, um die Abdeckung oder Linse zu reinigen. Wie oben beschrieben, kann das Fahrzeug 101 eine Düse 235 beinhalten, die jeweils neben einer oder mehreren der zweiten Kameras 130 angeordnet ist. Der Computer 105 kann programmiert sein, um die eine oder mehreren zweiten Kameras 130 vor ihrem Anschalten, um zweite Daten 135 zu erfassen, zu reinigen, indem die Pumpe 225 angeschaltet wird, um Waschfluid durch die jeweiligen Düsen 235 zu pumpen.
  • 5A und 5B sind aufgeschnittene perspektivische Ansichten eines beispielhaften Fahrzeugs 101, die ein beispielhaftes Sichtfeld 400 für erste Sensoren 120 und ein beispielhaftes Sichtfeld 405 für die zweiten Kameras 130 beinhalten. Das Sichtfeld 400 für die ersten Sensoren 120 beinhaltet das Sichtfeld 400 jedes der ersten Sensoren 120. Das Sichtfeld 405 für die zweiten Kameras 130 beinhaltet alle Sichtfelder 405 der zweiten Kameras 130.
  • Das Sichtfeld 400 für die ersten Sensoren 120 erstreckt sich von dem Fahrzeug 101 in Richtungen, die das Fahrzeug 101 umgeben, weg und erweitert sich ferner nach oben und unten zu einer „V“-Form, wobei die „V“-Form an den ersten Sensoren 120 beginnt. Das Sichtfeld 400 für die ersten Sensoren 120 beinhaltet einen Bereich auf dem Boden, der das Fahrzeug 101 umgibt. Jedoch beinhaltet das Sichtfeld 400 aufgrund einer Störung durch einen Umriss des Fahrzeugs 101 einen blinden Fleck 410 nicht. Der blinde Fleck 410 ist ein Bereich auf dem Boden benachbart zu dem Fahrzeug 101 und dieses umgebend, der sich nicht in einer Sichtlinie der ersten Sensoren 120 befindet. Das Sichtfeld 400 kann sich soweit vom Fahrzeug 101 weg erstrecken, wie die ersten Sensoren 120 noch Bilddaten auf Grundlage ihrer Empfindlichkeit empfangen können.
  • In einigen Fällen kann sich das Objekt 160 in dem blinden Fleck 410 befinden. In diesem Fall kann das Radar 110 des Fahrzeugs 101 das Objekt 160 erkennen. Jedoch empfängt der Computer 105 keine ersten Daten 125 von den ersten Sensoren 120, mit denen die Art des Objekts 160 bestimmt wird. In diesem Fall ist der Computer 105 programmiert, um das Fahrzeug 101 zu stoppen und die zweiten Kameras 130 anzuschalten, um zu versuchen, die Art des Objekts 160 zu bestimmen.
  • Wie oben beschrieben, können sich die zweiten Kameras 130 am vorderen Ende 201 und am hinteren Ende 202 des Fahrzeugs 101 und an dem linken und rechten Seitenspiegel 205 befinden. Sie können so ausgerichtet sein, dass das Sichtfeld 405 der zweiten Kameras 130 Teile des blinden Flecks 410 oder den gesamten blinden Fleck beinhaltet, die nicht in der Sichtlinie der ersten Sensoren 120 sind. Die zweiten Kameras 130 können Bilddaten von dem blinden Fleck 410 erfassen und dem Computer 105 zweite Daten 135 bereitstellen.
  • 6 ist eine Draufsicht auf das beispielhafte Fahrzeug 101 der 5A und 5B, die das Sichtfeld 400 auf Bodenebene und den blinden Fleck 410 benachbart zu dem Fahrzeug 101 zeigt, wenn keine Sichtlinie von den ersten Sensoren 120 vorhanden ist. 6 zeigt außerdem, dass das zweite Sichtfeld 405 einen Teil des blinden Flecks 410 beinhaltet.
  • 7 ist eine Seitenansicht des beispielhaften Fahrzeugs 101 der 5A, 5B und 6 und veranschaulicht das Sichtfeld 400 jeweils für die ersten Sensoren 120 und den blinden Fleck 410. 7 veranschaulicht außerdem das Sichtfeld 405 für die zweiten Kameras 130. Wie oben beschrieben, erstreckt sich das Sichtfeld 400 weg von dem Fahrzeug 101 und beinhaltet den blinden Fleck 410 zwischen dem Sichtfeld 400 und dem Fahrzeug 101 nicht. Das zweite Sichtfeld 405 erstreckt sich weg von dem Fahrzeug 101 und nach unten Richtung Boden, sodass das zweite Sichtfeld 405 zumindest einen Teil des blinden Flecks 410 beinhaltet. Auf diese Weise können die zweiten Kameras 130 zweite Daten 135 erfassen, die Objekte 160 innerhalb des blinden Flecks 410 der ersten Sensoren 120 darstellen.
  • 8 veranschaulicht einen beispielhaften Prozess 800 zum Bestimmen einer Art eines Objekts 160 in der Nähe des Fahrzeugs 101. Der Prozess 800 beginnt in einem Block 805.
  • Im Block 805 startet der Computer 105, um das Fahrzeug 101 in einem vollständig autonomen Modus zu betreiben. Zum Beispiel kann der Computer 105 als Reaktion auf eine Anweisung von einem Benutzer des Fahrzeugs 101 oder von dem Server 145 damit beginnen, das Fahrzeug 101 im vollständig autonomen Modus zu betreiben. Wenn der Computer 105 startet, um das Fahrzeug 101 im vollständig autonomen Modus zu betreiben, wird der Prozess 800 in einem Block 810 fortgeführt.
  • Im Block 810 bestimmt der Computer 105 auf Grundlage von Radardaten 115, ob sich ein Objekt 160 in der Nähe des Fahrzeugs 101 befindet. Der Computer 105 empfängt die Radardaten 115 von den Radars 110 und wertet sie aus. Auf Grundlage der Auswertung bestimmt der Computer 105, ob die Radardaten 115 ein Objekt 160 in der Nähe des Fahrzeugs 101 angeben. Falls der Computer 105 bestimmt, dass die Radardaten 115 kein Objekt 160 in der Nähe des Fahrzugs 101 angeben, wird der Prozess 800 in einem Block 815 fortgeführt. Falls der Computer 105 bestimmt, dass die Radardaten 115 das Objekt 160 in der Nähe des Fahrzugs 101 angeben, wird der Prozess 800 in einem Block 820 fortgeführt.
  • Im Block 815 bestimmt der Computer 105, ob das Fahrzeug 101 noch in einem vollständig autonomen Modus betrieben wird. Falls der Computer 105 eine Anweisung empfangen hat, das Fahrzeug 101 auszuschalten oder den autonomen Betrieb zu deaktivieren, endet der Prozess 800. Andernfalls wird der Prozess 800 im Block 810 fortgeführt.
  • Im Block 820 erfasst der Computer 105 die ersten Daten 125 von den ersten Sensoren 120. Wie oben beschrieben, arbeiten die ersten Sensoren 120 im Wesentlichen ständig, wenn das Fahrzeug 101 im vollständig autonomen Modus betrieben wird. Einer oder mehrere der ersten Sensoren 120 stellen dem Computer 105 mindestens einmal pro Minute Daten bereit.
  • Als Nächstes, in einem Block 825, bestimmt der Computer 105, ob er die Art des Objekts 160 auf Grundlage der erfassten ersten Daten 125 bestimmen kann. Falls der Computer 105 die Art des Objekts 160 bestimmen kann, tut er dies. Der Prozess 800 wird in einem Block 830 fortgeführt. Falls der Computer 105 die Art des Objekts 160 nicht bestimmen kann, wird der Prozess 800 in einem Block 835 fortgeführt.
  • Im Block 830 nimmt der Computer 105 den Betrieb des Fahrzeugs 101 im vollständig autonomen Modus wieder auf. Der Computer 105 nutzt die Art des Objekts 160, um das Fahrzeug 101 zu steuern. Der Prozess 800 wird im Block 810 fortgeführt.
  • Im Block 835, der dem Block 825 folgt, stoppt der Computer 105 das Fahrzeug 101. Das heißt, der Computer 105 sendet Anweisungen an die Fahrzeugkomponenten 140, um die Bewegung des Fahrzeugs 101 zu stoppen.
  • Als nächstes, in einem Block 840, reinigt der Computer 105 die zweiten Kameras 130. Der Computer 105 sendet Anweisungen an die Pumpe 225, um Waschfluid über die Fluidleitungen 230 zu den Düsen 235 zu pumpen. Wie oben beschrieben, sind die Düsen 235 so angeordnet, dass das Waschfluid über die Linse oder Abdeckungen der zweiten Kameras 130 verteilt wird.
  • Als nächstes, in einem Block 845, schaltet der Computer 105 die zweiten Kameras 130 an. Das heißt, der Computer 105 sendet Anweisungen an die zweiten Kameras 130, um mit dem Erfassen von zweiten Daten 135 zu beginnen und dem Computer 105 die zweiten Daten 135 bereitstellen. Wie oben beschrieben, sind die zweiten Daten 135 Bilddaten, die durch die zweiten Kameras 130 erfasst werden, die der Computer 105 anfordert, um eine Art eines durch ein Radar 110 erkannten Objekts 160 zu bestimmen. Die zweiten Daten 135 beinhalten Bilddaten von Bereichen in der Nähe des Fahrzeugs 101, die nicht im Sichtfeld der ersten Sensoren 120 beinhaltet sind. Der Computer 105 empfängt die zweiten Daten 135 von den zweiten Kameras 130.
  • Als nächstes, in einem Block 850, sendet der Computer 105 die zweiten Daten 135 an den Server 145. Der Computer 105 kann zusätzlich die ersten Daten 125 an den Server 145 senden. Das Fahrzeug 101 kann gestoppt bleiben. Der Prozess 800 wird in einem Block 855 fortgeführt.
  • Im Block 855 bestimmt der Server 145, ob er die Art des Objekts 160 auf Grundlage der zweiten Daten 135 und gegebenenfalls der ersten Daten 125 bestimmen kann. Falls der Server 145 die Art des Objekts 160 bestimmen kann, wird der Prozess 800 im Block 860 fortgeführt. Falls der Server 145 die Art des Objekts 160 nicht bestimmen kann, wird der Prozess 800 in einem Block 865 fortgeführt.
  • Im Block 860 empfängt der Computer 105 eine Nachricht von dem Server 145, die die Objektart angibt. Der Computer 105 nimmt die autonome Steuerung des Fahrzeugs 101 auf Grundlage des Objekts wieder auf. Der Prozess 800 wird im Block 830 fortgeführt.
  • In einem Block 865, der dem Block 855 folgt, empfängt der Computer 105 eine Nachricht von dem Server 145, die angibt, dass der Server 145 nicht in der Lage war, die Objektart zu bestimmen. Der Computer 105 hält das Fahrzeug 101 in einem gestoppten Zustand.
  • Als nächstes, in einem Block 870, unternimmt einer von dem Server 145 und dem Computer 105 Schritte, um den gestoppten Zustand des Fahrzeug 101 zu beheben. Zum Beispiel kann der Server 145 oder der Computer 105 eine Nachricht an einen Techniker senden, die berichtet, dass das Fahrzeug 101 gestoppt ist, und ein Eingreifen anfordert. Der Prozess 800 endet.
  • Im hier verwendeten Sinne bedeutet das ein Adjektiv modifizierende Adverb „im Wesentlichen“, dass eine Form, eine Struktur, ein Maß, ein Wert, eine Berechnung usw. von einer genau beschriebenen Geometrie, einem genau beschriebenen Abstand, einem genau beschriebenen Maß, einem genau beschriebenen Wert, einer genau beschriebenen Berechnung usw. aufgrund von Mängeln hinsichtlich der Materialien, Bearbeitung, Herstellung, Datensammlermessungen, Berechnungen, Verarbeitungszeit, Kommunikationszeit usw. abweichen kann.
  • Der Computer 105 und der Server 145 umfassen im Allgemeinen Anweisungen, die durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend genannten, ausgeführt werden können, und zum Ausführen von vorstehend beschriebenen Blöcken oder Prozessen. Computerausführbare Anweisungen können von Computerprogrammen zusammengestellt oder interpretiert werden, die unter Verwendung einer Vielzahl von Programmiersprachen und/oder -techniken erstellt wurden, darunter unter anderem, entweder allein oder in Kombination, Java™, C, C++, Visual Basic, Java Script, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch er einen oder mehrere Prozesse durchführt, darunter einen oder mehrere der hier beschriebenen Prozesse. Derartige Anweisungen und andere Daten können unter Verwendung einer Vielzahl von computerlesbaren Medien gespeichert und übertragen werden. Eine Datei in dem Computer 105 oder dem Server 145 ist im Allgemeinen eine Sammlung von Daten, die auf einem computerlesbaren Medium gespeichert sind, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw.
  • Zu einem computerlesbaren Medium zählt jedes Medium, das am Bereitstellen von Daten (z. B. Anweisungen), die durch einen Rechner gelesen werden können, beteiligt ist. Ein solches Medium kann viele Formen annehmen, einschließlich unter anderem nichtflüchtiger Medien, flüchtiger Medien usw. Nichtflüchtige Medien beinhalten beispielsweise optische oder magnetische Platten und sonstige Dauerspeicher. Flüchtige Medien schließen einen dynamischen Direktzugriffsspeicher (Dynamic Random Access Memory - DRAM) ein, der üblicherweise einen Hauptspeicher darstellt. Zu häufigen Formen computerlesbarer Medien gehören beispielsweise eine Diskette, eine flexible Disk, eine Festplatte, Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, DVD, ein beliebiges anderes optisches Medium, Lochkarten, Papierband, ein beliebiges anderes physisches Medium mit Lochmustern, ein RAM, ein PROM, ein EPROM, ein FLASH-EEPROM, ein beliebiger anderer Speicherchip oder eine Endlosbandkassette, oder ein beliebiges anderes Medium, das ein Computer auslesen kann.
  • Hinsichtlich der hier beschriebenen Medien, Prozesse, Systeme, Verfahren usw. versteht es sich, dass die Schritte derartiger Prozesse usw. zwar als gemäß einer bestimmten Abfolge erfolgend beschrieben worden sind, derartige Prozesse jedoch derart durchgeführt werden könnten, dass die beschriebenen Schritte in einer anderen Reihenfolge durchgeführt werden als in der hier beschriebenen Reihenfolge. Es versteht sich außerdem, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte hier beschriebene Schritte weggelassen werden könnten. Zum Beispiel können im Prozess 800 einer oder mehrere der Schritte ausgelassen werden oder die Schritte können in einer anderen Reihenfolge als der in 5 gezeigten durchgeführt werden. Mit anderen Worten sind die Beschreibungen von Systemen und/oder Prozessen in der vorliegenden Schrift zum Zwecke der Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollten keinesfalls dahingehend ausgelegt werden, dass sie den offenbarten Gegenstand einschränken.
  • Dementsprechend versteht es sich, dass die vorliegende Offenbarung, einschließlich der vorstehenden Beschreibung und der begleitenden Figuren und nachfolgenden Ansprüche, als veranschaulichend und nicht als einschränkend gedacht ist. Viele Ausführungsformen und Anwendungen, bei denen es sich nicht um die bereitgestellten Beispiele handelt, werden dem Fachmann beim Lesen der vorstehenden Beschreibung ersichtlich sein. Der Umfang der Erfindung sollte nicht unter Bezug auf die obige Beschreibung ermittelt werden, sondern stattdessen unter Bezug auf Ansprüche, die hier beigefügt sind und/oder in einer hierauf basierenden, nicht vorläufigen Patentanmeldung enthalten sind, gemeinsam mit dem vollständigen Umfang von Äquivalenten, zu welchen derartige Ansprüche berechtigen. Es wird erwartet und ist beabsichtigt, dass es hinsichtlich der in der vorliegenden Schrift erläuterten Techniken künftige Entwicklungen geben wird und dass die offenbarten Systeme und Verfahren in solche künftige Ausführungsformen aufgenommen werden. Insgesamt versteht es sich, dass der offenbarte Gegenstand modifiziert und variiert werden kann.
  • Der ein Nomen modifizierende Artikel „ein/e“ sollte dahingehend verstanden werden, dass er einen oder mehrere bezeichnet, es sei denn, es ist etwas anderes angegeben oder der Kontext erfordert etwas anderes. Der Ausdruck „auf Grundlage von/beruhen auf“ beinhaltet teilweise oder vollständig auf Grundlage von/beruhen auf.
  • Gemäß der vorliegenden Erfindung wird einen Computer in einem Fahrzeug bereitgestellt, der einen Prozessor und einen Speicher aufweist, wobei der Speicher durch den Prozessor ausführbare Anweisungen speichert, sodass der Prozessor programmiert ist, um ein Objekt in der Nähe des Fahrzeugs zu erkennen; mindestens eine von einer Vielzahl von Kameras aus einem abgeschalteten Zustand anzuschalten; und das Fahrzeug gemäß einer Objektart, die mit Daten von der mindestens einen der Vielzahl von Kameras bestimmt wird, zu betreiben.
  • Gemäß einer Ausführungsform ist der Prozessor ferner programmiert, um zu bestimmen, dass der Prozessor die Objektart auf Grundlage von Daten von Sensoren, die zu einem Zeitpunkt des Erkennens des Objekts arbeiten, nicht bestimmen kann.
  • Gemäß einer Ausführungsform ist der Prozessor ferner programmiert, um das Fahrzeug zu stoppen, wenn bestimmt wird, dass der Prozessor die Objektart nicht bestimmen kann.
  • Gemäß einer Ausführungsform ist der Prozessor ferner programmiert, um einen Server aufzufordern, die Objektart auf Grundlage der Kameradaten zu bestimmen; eine Nachricht von dem Server zu empfangen, die angibt, dass der Server die Objektart nicht bestimmen kann; und das Fahrzeug in einem gestoppten Zustand zu halten.
  • Gemäß einer Ausführungsform weisen die Sensoren ein erstes Sichtfeld auf und weist die Vielzahl von Kameras ein zweites Sichtfeld auf, das einen Bereich zwischen dem ersten Sichtfeld und dem Fahrzeug beinhaltet.
  • Gemäß einer Ausführungsform befindet sich die Vielzahl von Kameras unter einer Dachlinie des Fahrzeugs.
  • Gemäß einer Ausführungsform befindet sich eine der Vielzahl von Kameras an einem von einem Seitenspiegel des Fahrzeugs, einem vorderen Kühlergrillbereich des Fahrzeugs und einem hinteren Nummernschildbereich des Fahrzeugs.
  • Gemäß einer Ausführungsform ist der Prozessor ferner programmiert, um einen Server aufzufordern, die Objektart auf Grundlage der Daten von der mindestens einen der Vielzahl von Kameras zu bestimmen; und die Objektart von dem Server zu empfangen.
  • Gemäß einer Ausführungsform ist der Prozessor ferner programmiert, um eine oder mehrere der Vielzahl von Kameras zu reinigen.
  • Gemäß einer Ausführungsform beinhaltet das Erkennen des Objekts in der Nähe des Fahrzeugs Programmierung, um zu bestimmen, dass sich das Objekt innerhalb einer vorbestimmten Entfernung von einem Weg des Fahrzeugs befindet.
  • Gemäß der vorliegenden Erfindung beinhaltet ein System eine Vielzahl von Kameras, die an einem Fahrzeug angebracht sein kann; und einen Computer, der einen Prozessor und einen Speicher umfasst, wobei der Speicher durch den Prozessor ausführbare Anweisungen speichert, sodass der Prozessor programmiert ist, um ein Objekt in der Nähe des Fahrzeugs zu erkennen; mindestens eine der Vielzahl von Kameras aus einem abgeschalteten Zustand anzuschalten; und das Fahrzeug gemäß einer Obj ektart, die mit Daten von der mindestens einen der Vielzahl von Kameras bestimmt wird, zu betreiben.
  • Gemäß einer Ausführungsform ist die Erfindung ferner durch Sensoren gekennzeichnet, wobei der Prozessor ferner programmiert ist, um zu bestimmen, dass der Prozessor die Objektart auf Grundlage von Daten von den Sensoren nicht bestimmen kann.
  • Gemäß einer Ausführungsform ist der Prozessor ferner programmiert, um das Fahrzeug zu stoppen, wenn bestimmt wird, dass der Prozessor die Objektart nicht bestimmen kann.
  • Gemäß einer Ausführungsform ist die Erfindung ferner durch einen Server gekennzeichnet, der programmiert ist, um eine Aufforderung von dem Prozessor zu empfangen, die Objektart auf Grundlage der Daten von der mindestens einen der Vielzahl von Kameras zu bestimmen; die Objektart zu bestimmen; und die Objektart an den Prozessor zu senden.
  • Gemäß einer Ausführungsform weisen die Sensoren ein erstes Sichtfeld auf und weist die Vielzahl von Kameras ein zweites Sichtfeld auf, das einen Bereich zwischen dem ersten Sichtfeld und dem Fahrzeug beinhaltet.
  • Gemäß einer Ausführungsform befindet sich eine der Vielzahl von Kameras an einem von einem Seitenspiegel des Fahrzeugs, einem vorderen Kühlergrillbereich des Fahrzeugs und einem hinteren Nummernschildbereich des Fahrzeugs.
  • Gemäß einer Ausführungsform ist die Erfindung ferner durch eine Reinigungseinrichtung gekennzeichnet, wobei der Prozessor ferner programmiert ist, um die Reinigungseinrichtung anzuschalten, um mindestens eine der Kameras zu reinigen.
  • Gemäß der vorliegenden Erfindung beinhaltet ein System eine Bildaufnahmeeinrichtung; eine Verarbeitungseinrichtung; wobei die Verarbeitungseinrichtung programmiert ist, um ein Objekt in der Nähe eines Fahrzeugs zu erkennen; die Bildaufnahmeeinrichtung aus einem abgeschalteten Zustand anzuschalten; und das Fahrzeug gemäß einer Objektart, die mit Daten von der Bildaufnahmeeinrichtung bestimmt wird, zu betreiben.
  • Gemäß einer Ausführungsform ist die Erfindung ferner durch Sensoren gekennzeichnet, wobei die Verarbeitungseinrichtung ferner programmiert ist, um zu bestimmen, dass die Verarbeitungseinrichtung die Objektart auf Grundlage der Sensoren nicht bestimmen kann; das Fahrzeug auf Grundlage des Bestimmens, dass die Verarbeitungseinrichtung die Objektart nicht bestimmen kann, zu stoppen; und eine Reinigungseinrichtung anzuschalten, um die Bildaufnahmeeinrichtung zu reinigen.
  • Gemäß einer Ausführungsform ist die Verarbeitungseinrichtung ferner programmiert, um einen Server aufzufordern, die Objektart auf Grundlage der Daten von der Bildaufnahmeeinrichtung zu bestimmen; eine Nachricht von dem Server zu empfangen, die angibt, dass der Server die Objektart nicht bestimmen kann; und das Fahrzeug in einem gestoppten Zustand zu halten.

Claims (15)

  1. Computer in einem Fahrzeug, umfassend einen Prozessor und einen Speicher, wobei der Speicher durch den Prozessor ausführbare Anweisungen speichert, sodass der Prozessor programmiert ist, um: ein Objekt in der Nähe des Fahrzeugs zu erkennen; mindestens eine von einer Vielzahl von Kameras aus einem abgeschalteten Zustand anzuschalten; und das Fahrzeug gemäß einer Objektart, die mit Daten von der mindestens einen der Vielzahl von Kameras bestimmt wird, zu betreiben.
  2. Computer nach Anspruch 1, wobei der Prozessor ferner programmiert ist, um: zu bestimmen, dass der Prozessor die Obj ektart auf Grundlage von Daten von Sensoren, die zu einem Zeitpunkt des Erkennens des Objekts arbeiten, nicht bestimmen kann.
  3. Computer nach Anspruch 2, wobei der Prozessor ferner programmiert ist, um: das Fahrzeug zu stoppen, wenn bestimmt wird, dass der Prozessor die Objektart nicht bestimmen kann.
  4. Computer nach Anspruch 3, wobei der Prozessor ferner programmiert ist, um: einen Server aufzufordern, die Objektart auf Grundlage der Kameradaten zu bestimmen; eine Nachricht von dem Server zu empfangen, die angibt, dass der Server die Objektart nicht bestimmen kann; und das Fahrzeug in einem gestoppten Zustand zu halten.
  5. Computer nach einem der Ansprüche 2-4, wobei die Sensoren ein erstes Sichtfeld aufweisen und die Vielzahl von Kameras ein zweites Sichtfeld aufweist, das einen Bereich zwischen dem ersten Sichtfeld und dem Fahrzeug beinhaltet.
  6. Computer nach einem der Ansprüche 1-4, wobei sich die Vielzahl von Kameras unter einer Dachlinie des Fahrzeugs befindet.
  7. Computer nach einem der Ansprüche 1-4, wobei sich eine der Vielzahl von Kameras an einem von einem Seitenspiegel des Fahrzeugs, einem vorderen Kühlergrillbereich des Fahrzeugs und einem hinteren Nummernschildbereich des Fahrzeugs befindet.
  8. Computer nach einem der Ansprüche 1-4, wobei der Prozessor ferner programmiert ist, um: einen Server aufzufordern, die Objektart auf Grundlage der Daten von der mindestens einen der Vielzahl von Kameras zu bestimmen; und die Objektart von dem Server zu empfangen.
  9. Computer nach einem der Ansprüche 1-4, wobei der Prozessor ferner programmiert ist, um: eine oder mehrere der Vielzahl von Kameras zu reinigen.
  10. Computer nach einem der Ansprüche 1-4, wobei das Erkennen des Objekts in der Nähe des Fahrzeugs Programmierung beinhaltet, um zu bestimmen, dass sich das Objekt innerhalb einer vorbestimmten Entfernung von einem Weg des Fahrzeugs befindet.
  11. System, umfassend: eine Vielzahl von Kameras, die an einem Fahrzeug angebracht sein kann; und einen Computer, der einen Prozessor und einen Speicher umfasst, wobei der Speicher durch den Prozessor ausführbare Anweisungen speichert, sodass der Prozessor programmiert ist, um: ein Objekt in der Nähe des Fahrzeugs zu erkennen; mindestens eine der Vielzahl von Kameras aus einem abgeschalteten Zustand anzuschalten; und das Fahrzeug gemäß einer Objektart, die mit Daten von der mindestens einen der Vielzahl von Kameras bestimmt wird, zu betreiben.
  12. System nach Anspruch 11, ferner umfassend: Sensoren, wobei der Prozessor ferner programmiert ist, um zu bestimmen, dass der Prozessor die Objektart auf Grundlage von Daten von den Sensoren nicht bestimmen kann.
  13. System nach Anspruch 12, wobei der Prozessor ferner programmiert ist, um: das Fahrzeug zu stoppen, wenn bestimmt wird, dass der Prozessor die Objektart nicht bestimmen kann.
  14. System nach Anspruch 12 oder 13, wobei die Sensoren ein erstes Sichtfeld aufweisen und die Vielzahl von Kameras ein zweites Sichtfeld aufweist, das einen Bereich zwischen dem ersten Sichtfeld und dem Fahrzeug beinhaltet.
  15. System nach einem der Ansprüche 11-13, ferner umfassend: einen Server, der programmiert ist, um: eine Aufforderung von dem Prozessor zu empfangen, die Objektart auf Grundlage der Daten von der mindestens einen der Vielzahl von Kameras zu bestimmen; die Objektart zu bestimmen; und die Objektart an den Prozessor zu senden.
DE102019104357.3A 2018-02-22 2019-02-20 Kamera mit reinigungssystem Pending DE102019104357A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/902,617 US10752218B2 (en) 2018-02-22 2018-02-22 Camera with cleaning system
US15/902,617 2018-02-22

Publications (1)

Publication Number Publication Date
DE102019104357A1 true DE102019104357A1 (de) 2019-08-22

Family

ID=67481885

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019104357.3A Pending DE102019104357A1 (de) 2018-02-22 2019-02-20 Kamera mit reinigungssystem

Country Status (3)

Country Link
US (1) US10752218B2 (de)
CN (1) CN110191308A (de)
DE (1) DE102019104357A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019172159A1 (ja) * 2018-03-07 2019-09-12 株式会社小糸製作所 車両用クリーナシステムおよび車両システム
JP7210906B2 (ja) * 2018-05-31 2023-01-24 株式会社デンソー 車両の自動運転制御装置及びプログラム
US11227409B1 (en) 2018-08-20 2022-01-18 Waymo Llc Camera assessment techniques for autonomous vehicles
US11699207B2 (en) * 2018-08-20 2023-07-11 Waymo Llc Camera assessment techniques for autonomous vehicles
JP2020179808A (ja) * 2019-04-26 2020-11-05 トヨタ自動車株式会社 車両制御装置
US11760313B2 (en) * 2020-04-30 2023-09-19 Zoox, Inc. Sensor pod cleaning system
US11953623B2 (en) 2020-04-30 2024-04-09 Zoox, Inc. Sensor pod assembly
CN112158168B (zh) * 2020-09-10 2022-02-18 一汽解放汽车有限公司 一种摄像头清洗设备、控制方法及车辆
US20220307619A1 (en) * 2021-03-23 2022-09-29 Ford Global Technologies, Llc Autonomous sensor cleaning solenoid

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009166691A (ja) * 2008-01-16 2009-07-30 Mazda Motor Corp 車両の走行制御装置
JP4858574B2 (ja) * 2009-05-19 2012-01-18 トヨタ自動車株式会社 物体検出装置
JP5372680B2 (ja) * 2009-09-24 2013-12-18 日立オートモティブシステムズ株式会社 障害物検知装置
US20120117745A1 (en) 2009-09-29 2012-05-17 Denso Corporation On-board optical sensor cover and on-board optical sensor apparatus
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
US20120286974A1 (en) * 2011-05-11 2012-11-15 Siemens Corporation Hit and Run Prevention and Documentation System for Vehicles
US8718899B2 (en) * 2011-06-22 2014-05-06 Robert Bosch Gmbh Driver assistance systems using radar and video
DE102011081456A1 (de) * 2011-08-24 2013-02-28 Ford Global Technologies, Llc Vorrichtung und Verfahren zur Verkehrszeichenerkennung
US9707896B2 (en) 2012-10-15 2017-07-18 Magna Electronics Inc. Vehicle camera lens dirt protection via air flow
DE102013001229A1 (de) * 2013-01-25 2014-07-31 Wabco Gmbh Verfahren zum Ermitteln eines Auslöekriteriums für eine Bremsung und ein Notbremssystem zur Durchführung des Verfahrens
DE102013001228A1 (de) * 2013-01-25 2014-07-31 Wabco Gmbh Verfahren zum Ermitteln eines Auslösekriteriums für eine Bremsung und Notbremssystem für ein Fahrzeug
US9126534B2 (en) 2013-03-14 2015-09-08 Ford Global Technologies, Llc Automated camera wash for vehicles
DE102013223803A1 (de) * 2013-11-21 2015-05-21 Robert Bosch Gmbh Verfahren und Vorrichtung zur Segmentierung eines Belegungsgitters für ein Umfeldmodell eines Fahrerassistenzsystems für ein Fahrzeug
US9619718B2 (en) 2013-12-18 2017-04-11 Johnson Controls Technology Company In-vehicle camera and alert systems
JP5950062B2 (ja) 2014-01-22 2016-07-13 Nok株式会社 バルブステムシール
US9248832B2 (en) * 2014-01-30 2016-02-02 Mobileye Vision Technologies Ltd. Systems and methods for detecting traffic signal details
US9437111B2 (en) * 2014-05-30 2016-09-06 Ford Global Technologies, Llc Boundary detection system
US9248834B1 (en) * 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
JP6156333B2 (ja) * 2014-11-19 2017-07-05 トヨタ自動車株式会社 自動運転車両システム
CN107004361B (zh) * 2014-12-09 2020-03-27 三菱电机株式会社 碰撞风险计算装置、碰撞风险显示装置以及车体控制装置
JP6561584B2 (ja) * 2015-05-27 2019-08-21 株式会社デンソー 車両制御装置、及び車両制御方法
JP6129268B2 (ja) * 2015-10-08 2017-05-17 三菱電機株式会社 車両用運転支援システムおよび運転支援方法
US10137904B2 (en) * 2015-10-14 2018-11-27 Magna Electronics Inc. Driver assistance system with sensor offset correction
CN108431630A (zh) * 2015-12-21 2018-08-21 株式会社小糸制作所 车辆用图像获取装置、控制装置、包括了车辆用图像获取装置或控制装置的车辆和车辆用图像获取方法
MX2018008920A (es) * 2016-01-22 2018-09-03 Nissan Motor Metodo de determinacion de peatones y dispositivo de determinacion.
US20170248953A1 (en) * 2016-02-25 2017-08-31 Ford Global Technologies, Llc Autonomous peril control
JP6447545B2 (ja) * 2016-03-11 2019-01-09 トヨタ自動車株式会社 車両用照明装置
KR101866014B1 (ko) * 2016-03-22 2018-06-08 현대자동차주식회사 차량의 측면충돌 회피 시스템 및 그 방법
US9535423B1 (en) * 2016-03-29 2017-01-03 Adasworks Kft. Autonomous vehicle with improved visual detection ability
US20170313288A1 (en) 2016-04-14 2017-11-02 Ford Global Technologies, Llc Exterior vehicle camera protection and cleaning mechanisms
DE112016006745T5 (de) * 2016-04-15 2018-12-27 Honda Motor Co., Ltd. Fahrzeugsteuersystem, Fahrzeugsteuerverfahren und Fahrzeugsteuerprogramm
JP6418407B2 (ja) * 2016-05-06 2018-11-07 トヨタ自動車株式会社 車両のブレーキ制御装置
US11034335B2 (en) * 2016-07-07 2021-06-15 Nio Usa, Inc. Low-profile imaging system with enhanced viewing angles
JP6576887B2 (ja) * 2016-08-09 2019-09-18 クラリオン株式会社 車載装置
CN109690650B (zh) * 2016-09-09 2020-10-02 日产自动车株式会社 车辆的行驶控制方法及行驶控制装置
US10515390B2 (en) * 2016-11-21 2019-12-24 Nio Usa, Inc. Method and system for data optimization
DE102016124747A1 (de) * 2016-12-19 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Erkennen eines erhabenen Objekts anhand perspektivischer Bilder
US11414079B2 (en) * 2017-01-13 2022-08-16 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, and storage medium
US11345319B2 (en) * 2017-01-20 2022-05-31 Nifco Inc. Device for spraying fluid on vehicle camera
GB2559760B (en) * 2017-02-16 2019-08-28 Jaguar Land Rover Ltd Apparatus and method for displaying information
US10421436B2 (en) * 2017-03-24 2019-09-24 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for surveillance of a vehicle using camera images
JP6523361B2 (ja) * 2017-03-30 2019-05-29 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP6944308B2 (ja) * 2017-08-18 2021-10-06 ソニーセミコンダクタソリューションズ株式会社 制御装置、制御システム、および制御方法
JP6933065B2 (ja) * 2017-09-13 2021-09-08 トヨタ自動車株式会社 情報処理装置、情報提供システム、情報提供方法、及びプログラム
KR101956689B1 (ko) * 2017-10-16 2019-07-04 주식회사 만도 긴급차량 운행경로 생성기능을 갖는 자동 순항 제어장치 및 제어방법
US11163309B2 (en) * 2017-11-30 2021-11-02 Direct Current Capital LLC Method for autonomous navigation
US11789449B2 (en) * 2018-02-09 2023-10-17 Nvidia Corporation Controlling autonomous vehicles using safe arrival times
KR102486179B1 (ko) * 2018-02-20 2023-01-10 현대자동차주식회사 차량 및 그 제어 방법
US10593189B2 (en) * 2018-07-17 2020-03-17 Denso International America, Inc. Automatic traffic incident detection and reporting system
JP7052632B2 (ja) * 2018-08-10 2022-04-12 トヨタ自動車株式会社 車両用周辺表示装置

Also Published As

Publication number Publication date
CN110191308A (zh) 2019-08-30
US10752218B2 (en) 2020-08-25
US20190256054A1 (en) 2019-08-22

Similar Documents

Publication Publication Date Title
DE102019104357A1 (de) Kamera mit reinigungssystem
DE102018113386A1 (de) Reinigen von fahrzeugsensoren
EP2758296B1 (de) Verfahren zur klassifikation von parkszenarien für ein einparksystem eines kraftfahrzeugs
DE102019106375B4 (de) Fahrzeugsteuervorrichtung
DE102019128555A1 (de) Minderung einer intermittierenden verzögerung für ferngesteuerten fahrzeugvorgang
DE102017128502A1 (de) Fahrzeugkollisionsvermeidung
DE102018120786A1 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102018005542A1 (de) Fahrerzustandserkennungsvorrichtung, fahrerzustandserkennungssystem und fahrerzustandserkennungsverfahren
DE102018121697A1 (de) Kooperativer Fahrzeugbetrieb
DE102018109782A1 (de) Automatische Parksteuerungsvorrichtung und automatisches Parksteuerungsverfahren
DE102018120789A1 (de) Verfahren und Vorrichtung zur Überwachung eines autonomen Fahrzeugs
DE102015105248A1 (de) Erzeugen eines bildes von der umgebung eines gelenkfahrzeugs
DE102018101388A1 (de) Korrigieren einer Position eines Fahrzeugs mit SLAM
DE102018005526A1 (de) Fahrerzustandserkennungsvorrichtung, Fahrerzustandserkennungssystem und Fahrerzustandserkennungsverfahren
DE102018124403A1 (de) Reinigung von fahrzeugsensoren
DE102018106383A1 (de) Fahrzeugspurrichtungserkennung
DE102020123087A1 (de) System zur vermeidung seitlichen streifens bei anhängern
DE102017111931A1 (de) Verfahren zum Überwachen eines Bodenbereichs unterhalb eines Kraftfahrzeugs mittels einer optischen Sensoreinrichtung, Sensorvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE112021000992T5 (de) Parkunterstützungsvorrichtung
DE102016002232B4 (de) Verfahren zum Betrieb eines Kraftfahrzeugs
DE102017212513A1 (de) Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes
DE102016111079A1 (de) Verfahren zur Objekthöhenerkennung eines Objektes in der Umgebung eines Kraftfahrzeugs sowie Fahrerassistenzsystem
DE102020118589A1 (de) Verbesserter fahrzeugbetrieb
DE102020129802A1 (de) Fahrzeugbetriebskennzeichnung
DE102017218191B3 (de) Einparkhilfe für ein Einparken auf einer Gegenfahrbahn

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE