-
TECHNISCHES GEBIET
-
Die Offenbarung betrifft das Gebiet der Fahrzeugkameras und insbesondere ein System zum Reinigen von Fahrzeugkameras.
-
ALLGEMEINER STAND DER TECHNIK
-
Autonome Fahrzeuge nutzen eine Vielzahl von Sensoren, um die Objektarten entlang eines Fahrtwegs zu erkennen und zu bestimmen, einschließlich Radar, Kameras und LiDAR. In einigen Fällen kann der das Fahrzeug steuernde Computer ein Objekt auf Grundlage von Radardaten erkennen. Jedoch unterstützt das Radar üblicherweise nicht die Erkennung einer Objektart. Ferner ist es ein Problem, dass der das Fahrzeug steuernde Computer möglicherweise nicht in der Lage ist, die Objektart auf Grundlage von Daten von anderen Sensoren, wie etwa Sensoren, die ständig und/oder periodisch Daten für die Fahrzeugsteuerung bereitstellen, z. B. Bilddaten von Kameras und LiDARs, zu bestimmen.
-
KURZDARSTELLUNG
-
Ein Computer in einem Fahrzeug beinhaltet einen Prozessor und einen Speicher, wobei der Speicher durch den Prozessor ausführbare Anweisungen speichert, sodass der Prozessor programmiert ist, um ein Objekt in der Nähe des Fahrzeugs zu erkennen. Die Anweisungen können ferner Anweisungen beinhalten, um mindestens eine von einer Vielzahl von Kameras aus einem abgeschalteten Zustand anzuschalten und das Fahrzeug gemäß einer Objektart, die mit Daten von der mindestens einen der Vielzahl von Kameras bestimmt wird, zu betreiben.
-
Die Anweisungen können ferner Anweisungen beinhalten, um zu bestimmen, dass der Prozessor die Objektart auf Grundlage von Sensoren, die zu einem Zeitpunkt des Erkennens des Objekts arbeiten, nicht bestimmen kann.
-
Die Anweisungen können ferner Anweisungen beinhalten, um das Fahrzeug zu stoppen, wenn bestimmt wird, dass der Prozessor die Objektart nicht bestimmen kann.
-
Die Anweisungen können ferner Anweisungen beinhalten, um einen Server aufzufordern, die Objektart auf Grundlage der Daten von der mindestens einen der Vielzahl von Kameras zu bestimmen, eine Nachricht von dem Server zu empfangen, die angibt, dass der Server die Objektart nicht bestimmen kann; und das Fahrzeug in einem gestoppten Zustand zu halten.
-
Die Sensoren können ein erstes Sichtfeld aufweisen und die Vielzahl von Kameras kann ein zweites Sichtfeld aufweisen, das einen Bereich zwischen dem ersten Sichtfeld und dem Fahrzeug beinhaltet.
-
Die Kameras können sich unter einer Dachlinie des Fahrzeugs befinden.
-
Eine der Kameras kann sich an einem von einem Seitenspiegel des Fahrzeugs, einem vorderen Kühlergrillbereich des Fahrzeugs und einem hinteren Nummernschildbereich des Fahrzeugs befinden.
-
Die Anweisungen können ferner Anweisungen beinhalten, um einen Server aufzufordern, die Objektart auf Grundlage der Daten von der mindestens einen der Vielzahl von Kameras zu bestimmen; und die Objektart von dem Server zu empfangen.
-
Die Anweisungen können ferner Anweisungen beinhalten, um eine oder mehrere der Vielzahl von Kameras zu reinigen.
-
Die Anweisung, das Objekt in der Nähe des Fahrzeugs zu erkennen, kann Anweisungen beinhalten, um zu bestimmen, dass sich das Objekt innerhalb einer vorbestimmten Entfernung von einem Weg des Fahrzeugs befindet.
-
Ein System beinhaltet eine Vielzahl von Kameras, die an einem Fahrzeug angebracht sein können, und einen Computer mit einem Prozessor und einem Speicher, wobei der Speicher durch den Prozessor ausführbare Anweisungen speichert, um ein Objekt in der Nähe des Fahrzeugs zu erkennen, mindestens eine der Vielzahl von Kameras aus einem abgeschalteten Zustand anzuschalten und das Fahrzeug gemäß der Obj ektart, die mit Daten von der mindestens einen der Vielzahl von Kameras bestimmt wird, zu betreiben.
-
Das System kann ferner Sensoren beinhalten und die Anweisungen können ferner Anweisungen beinhalten, um die Objektart auf Grundlage von Daten von den Sensoren zu bestimmen.
-
Die Anweisungen können ferner Anweisungen beinhalten, um das Fahrzeug zu stoppen, wenn bestimmt wird, dass der Prozessor die Objektart nicht bestimmen kann.
-
Das System kann ferner einen Server beinhalten, der programmiert ist, um eine Aufforderung von dem Prozessor zu empfangen, die Objektart auf Grundlage der Kameradaten zu bestimmen, die Objektart zu bestimmen; und die Objektart an den Prozessor zu senden.
-
Die Sensoren können ein erstes Sichtfeld aufweisen und die Vielzahl von Kameras kann ein zweites Sichtfeld aufweisen, das einen Bereich zwischen dem ersten Sichtfeld und dem Fahrzeug beinhaltet.
-
Eine der Vielzahl von Kameras kann an einem von einem Seitenspiegel des Fahrzeugs, einem vorderen Kühlergrillbereich des Fahrzeugs und einem hinteren Nummernschildbereich des Fahrzeugs angebracht werden.
-
Das System kann ferner eine Reinigungseinrichtung beinhalten und die Anweisungen können Anweisungen beinhalten, um die Reinigungseinrichtung anzuschalten, um mindestens eine der Kameras zu reinigen.
-
Ein System kann eine Bildaufnahmeeinrichtung und eine Verarbeitungseinrichtung beinhalten, die programmiert ist, um ein Objekt in der Nähe eines Fahrzeugs zu erkennen, die Bildaufnahmeeinrichtung aus einem abgeschalteten Zustand anzuschalten und das Fahrzeug gemäß einer Objektart, die mit Daten von der Bildaufnahmeeinrichtung bestimmt wird, zu betreiben.
-
Das System kann ferner Sensoren beinhalten und die Anweisungen können ferner Anweisungen beinhalten, um zu bestimmen, dass die Verarbeitungseinrichtung die Objektart auf Grundlage der Sensoren nicht bestimmen kann, das Fahrzeug auf Grundlage des Bestimmens, dass die Verarbeitungseinrichtung die Objektart nicht bestimmen kann, zu stoppen und eine Reinigungseinrichtung anzuschalten, um die Bildaufnahmeeinrichtung zu reinigen.
-
Die Anweisungen können ferner Anweisungen beinhalten, um einen Server aufzufordern, die Objektart auf Grundlage von Daten von der Bildaufnahmeeinrichtung zu bestimmen, eine Nachricht von dem Server zu empfangen, die angibt, dass der Server die Objektart nicht bestimmen kann; und das Fahrzeug in einem gestoppten Zustand zu halten.
-
Figurenliste
-
- 1 ist ein Blockdiagramm für ein beispielhaftes System zum Identifizieren eines Objekts in der Nähe eines Fahrzeugs.
- 2 veranschaulicht ein beispielhaftes Fahrzeug und einen Fahrzeugfahrtweg mit einem Objekt in der Nähe des Fahrzeugs.
- 3 ist eine isometrische Ansicht des Fahrzeugs, das erste Sensoren und zweite Kameras beinhaltet.
- 4 veranschaulicht eine beispielhafte Düse, die neben einer zweiten Kamera angeordnet ist.
- 5A und 5B sind aufgeschnittene perspektivische Ansichten eines beispielhaften Fahrzeugs, die Sichtfelder für erste Sensoren und zweite Kameras veranschaulichen.
- 6 ist eine Draufsicht auf das Fahrzeug der 5A und 5B, die die Sichtfelder für erste Sensoren und zweite Kameras veranschaulicht.
- 7 ist eine Seitenansicht des Fahrzeugs der 5A, 5B und 6, die Sichtfelder für erste Sensoren und zweite Kameras veranschaulicht.
- 8 ist ein Diagramm eines beispielhaften Prozesses zum Ergänzen von ersten Daten von ersten Sensoren mit zweiten Daten von zweiten Kameras.
-
DETAILLIERTE BESCHREIBUNG
-
1 veranschaulicht ein beispielhaftes System 100 zum Betreiben eines Fahrzeugs 101. Das Fahrzeug 101 beinhaltet einen Computer 105, der programmiert ist, um das Fahrzeug 101 zu betreiben. Der Computer 105 beinhaltet einen oder mehrere Prozessoren und einen Speicher. Der Speicher speichert Anweisungen, die durch den einen oder die mehreren Prozessoren ausführbar sind. Wie nachstehend erörtert, ist der Computer 105 programmiert, um ein Objekt 160 in der Nähe des Fahrzeugs 101 auf Grundlage von Radardaten 115, durch durch ein Radar 110 erfasst werden, zu erkennen. Der Computer 105 ist ferner programmiert, um eine Art eines Objekts 160 (d. h. eine „Objektart“) in der Nähe des Fahrzeugs 101 auf Grundlage von ersten Daten 125 von ersten Sensoren 120 zu bestimmen. Eine Objektart ist eine Klassifizierung des Objekts auf Grundlage von physischen Eigenschaften, wie etwa Größe, Form, Farbe, Bewegungsarten usw. Falls der Computer 105 die Objektart auf Grundlage der ersten Daten 125 nicht bestimmen kann, ist der Computer 105 programmiert, um zweite Kameras 130 zu reinigen und anzuschalten, zweite Daten 135 zu erfassen und die zweiten Daten 135 an einen Server 145 zu senden. Der Computer 105 „kann die Objektart nicht bestimmen“ bedeutet, dass der Computer 105 die Objektart nach Ausführung der Programmierung für Objektartbestimmung nicht bestimmen kann. Der Server 145 bestimmt dann die Art des Objekts 160 auf Grundlage der zweiten Daten 135 oder versucht diese zu bestimmen. In einigen Fällen kann der Server 145 zusätzlich die ersten Daten 125 empfangen und nutzen, um die Art des Objekts 160 zu bestimmen oder dies zu versuchen.
-
Wenn der Computer 105 das Fahrzeug 101 betreibt, ist das Fahrzeug 101 ein „autonomes“ Fahrzeug 101. Der Computer 105 beinhaltet Computercode (Software) und kann ferner Firmware oder dedizierte Hardware zum Steuern des Fahrzeugs 101 beinhalten.
-
Für die Zwecke dieser Offenbarung wird der Ausdruck „autonomes Fahrzeug“ zum Verweis auf ein Fahrzeug 101 verwendet, das in einem vollständig autonomen Modus betrieben wird. Ein vollständig autonomer Modus ist als ein Modus definiert, in dem jedes von dem Antrieb (typischerweise über einen Antriebsstrang, der einen Elektromotor und/oder Verbrennungsmotor beinhaltet), dem Bremsen und Lenken des Fahrzeugs 101 durch den Computer 105 gesteuert wird. Ein halbautonomer Modus ist ein Modus, in dem mindestens eines von dem Antrieb (typischerweise über einen Antriebsstrang, der einen Elektromotor und/oder Verbrennungsmotor beinhaltet), dem Bremsen und Lenken des Fahrzeugs 101 mindestens teilweise durch den Computer 105 und nicht durch einen menschlichen Fahrzeugführer gesteuert werden.
-
Während des autonomen Betriebs des Fahrzeugs 101 ist der Computer 105 programmiert, um Radardaten 115 von dem Radar 110 und erste Daten 125 von ersten Sensoren 120 zu erfassen. Das Radar 110 ist während des vollständig autonomen Modus üblicherweise aktiv. Die ersten Sensoren 120 beinhalten LiDAR und Kameras, die ebenfalls üblicherweise während des vollständig autonomen Modus aktiv sind. Aktiv bedeutet, dass das Radar 110 und die ersten Sensoren 120 usw. unter Strom stehen, angeschaltet sind und dem Computer 105 mindestens einmal pro Minute jeweils Radardaten 115 und erste Daten 125 bereitstellen. Üblicherweise stellen das Radar 110 und die ersten Sensoren 120 dem Computer 105 mehrere Male pro Sekunde jeweils Radardaten 115 und erste Daten 125 bereit. Die Radardaten 115 beinhalten Daten bezüglich einer jeweiligen Position für Objekte 160 im Weg des Fahrzeugs 101. Die ersten Daten 125 beinhalten Daten bezüglich der Umgebung, in der das Fahrzeug 101 betrieben wird, einschließlich Bilddaten hinsichtlich Objekten 160 in der Nähe des Fahrzeugs 101. Die Objekte 160 beinhalten unbewegliche Objekte jeglicher Art, wie etwa Verkehrszeichen, Autos und Schmutz und beinhalten ferner bewegliche Objekte jeglicher Art, wie etwa Menschen oder Tiere.
-
Auf Grundlage der ersten Daten 125 ist der Computer 105 programmiert, um eine Art des Objekts 160 unter Verwendung von an sich bekannten Bilderkennungstechniken zu bestimmen oder dies zu versuchen. Die Art eines Objekts 160 im hierin verwendeten Sinne ist eine erkennbare Kategorie von beweglichen Objekten oder unbeweglichen Objekten, wie etwa ein Stein, eine Plastiktüte, eine Zeitung, ein Lastwagen, eine Person, ein Hund usw. Zum Beispiel kann der Computer 105 eine Tabelle mit Arten von Objektarten pflegen. Unter Verwendung bekannter Bilderkennungstechniken kann der Computer 105 bestimmen, dass das Objekt 160 mit einer der Objektarten in der Tabelle übereinstimmt.
-
In einigen Fällen kann es sein, dass der Computer 105 nicht in der Lage ist, die Art des Objekts 160 auf Grundlage der ersten Daten 125 von den ersten Sensoren 120 zu bestimmen. Zum Beispiel kann das Objekt 160, wie nachstehend ausführlicher beschrieben wird, durch das Radar 110 erkannt werden, befindet sich aber möglicherweise nicht in dem Sichtfeld eines der ersten Sensoren 120. In diesem Fall beinhalten die ersten Daten 125 das Objekt 160 nicht und der Computer 105 kann die Art des Objekts 160 nicht bestimmen. In einigen Fällen kann es sein, dass die ersten Daten 125 nicht ausreichend deutlich sind oder nur einen Teil des Objekts 160 beinhalten, sodass der Computer 105 die Art des Objekts 160 nicht bestimmen kann.
-
In diesen Fällen, wenn der Computer 105 eine Objektart nicht bestimmen kann, ist der Computer 105 programmiert, um das Fahrzeug 101 zu stoppen. Der Computer 105 ist ferner programmiert, um die zweiten Kameras 130 anzuschalten. Die zweiten Kameras 130 erfassen zweite Daten 135, die verwendet werden, um die Art des Objekts 160 in der Nähe des Fahrzeugs 101 zu bestimmen, wenn die Art des Objekts 160 nicht auf Grundlage der ersten Daten 125 bestimmt werden kann. Die zweiten Kameras 130 beinhalten Kameras und/oder LiDAR, die sich am Fahrzeug 101 befinden, um zweite Daten 135 zu erfassen, die sich nicht innerhalb des Sichtfelds der ersten Sensoren 120 befinden. Der Computer 105 ist ferner programmiert, um die zweiten Daten 135 zur Auswertung an den Server 145 zu senden. Der Computer 105 ist ferner programmiert, um Daten und Anweisungen von dem Server 145 zu empfangen. Auf Grundlage der Daten und Anweisungen von dem Server 145 kann der Computer 105 bestimmen, ob der Betrieb des Fahrzeugs 101 neu gestartet werden soll oder ob der Betrieb des Fahrzeugs 101 eingestellt werden soll (d. h. das Fahrzeug 101 wird in einem gestoppten Zustand gehalten).
-
Der Computer 105 ist im Allgemeinen zur Kommunikation auf einem Netzwerk des Fahrzeugs 101 programmiert, das z. B. einen bekannten Kommunikationsbus beinhaltet. Über das Netzwerk, den Bus und/oder andere drahtgebundene oder drahtlose Mechanismen (z. B. ein drahtgebundenes oder drahtloses lokales Netzwerk in dem Fahrzeug 101) kann der Computer 105 Nachrichten an verschiedene Vorrichtungen in einem Fahrzeug 101 übertragen und/oder Nachrichten von den verschiedenen Vorrichtungen empfangen, z. B. Steuerungen, Aktoren, Sensoren usw., einschließlich der ersten Sensoren 120. Zusätzlich oder alternativ kann in Fällen, bei denen der Computer 105 tatsächlich mehrere Vorrichtungen umfasst, das Fahrzeugnetzwerk zur Kommunikation zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung als der Computer 105 dargestellt sind. Zusätzlich kann der Computer 105 programmiert sein, um mit einem Netzwerk zu kommunizieren, das verschiedene drahtgebundene und/oder drahtlose Netzwerktechnologien beinhalten kann, z. B. Mobilfunk, Bluetooth®, Bluetooth® Low Energy (BLE), drahtgebundene und/oder drahtlose Paketnetzwerke usw.
-
Das Fahrzeug 101 beinhaltet eine Vielzahl von Fahrzeugkomponenten 140. Jede Fahrzeugkomponente 140 beinhaltet eine oder mehrere Hardwarekomponenten, die dazu ausgelegt sind, eine mechanische Funktion oder einen mechanischen Vorgang durchzuführen - wie etwa das Fahrzeug bewegen, das Fahrzeug 101 verlangsamen oder stoppen, das Fahrzeug 101 lenken usw. Nicht einschränkende Beispiele von Fahrzeugkomponenten 140 beinhalten eine Antriebskomponente (die z. B. einen Verbrennungsmotor und/oder einen Elektromotor usw. beinhaltet), eine Getriebekomponente, eine Lenkkomponente (die z. B. eines oder mehrere von einem Lenkrad, einer Zahnstange usw. beinhalten kann), eine Bremskomponente, eine Einparkhilfekomponente, eine Komponente für adaptive Geschwindigkeitsregelung, eine adaptive Lenkkomponente, einen bewegbaren Sitz und dergleichen. Im hierin verwendeten Sinne bedeutet „der Computer 105 betreibt das Fahrzeug 101“, dass der Computer 105 Anweisungen in einem Fahrzeugnetzwerk oder Bus an die Fahrzeugkomponenten 140 sendet, um Fahrzeugvorgänge, wie etwa Führen des Fahrzeugs 101 entlang eines Wegs, Parken des Fahrzeugs 101, Stoppen des Fahrzeugs 101 usw., durchzuführen.
-
Die ersten Sensoren 120 beinhalten erste Kameras und erstes LiDAR, die üblicherweise während des vollständig autonomen Modus des Fahrzeugs 101 aktiv sind und dem Computer 105 erste Daten 125 bereitstellen. Wie oben angemerkt, bedeutet „aktiv“ während des vollständig autonomen Modus, dass sie unter Strom stehen, angeschaltet sind und dem Computer 105 mindestens einmal pro Minute jeweilige Daten bereitstellen. Die ersten Daten 125 können Darstellungen von Objekten 160 in der Nähe des Fahrzeugs 101, Straßen und andere Merkmale der Umgebung, in der das Fahrzeug 101 gerade fährt, beinhalten. Im Allgemeinen können die ersten Daten 125 beliebige Daten beinhalten, die durch die ersten Sensoren 120 erhoben werden und können ferner Daten beinhalten, die aus solchen Daten berechnet werden.
-
Die zweiten Kameras 130 sind während des autonomen Betriebs des Fahrzeugs 101 üblicherweise in einem abgeschalteten Zustand. Dass die zweiten Kameras in einem abgeschalteten Zustand sind bedeutet, dass die zweiten Kameras 130 dem Computer 105 nicht mindestens einmal pro Minute die zweiten Daten 135 bereitstellen und/oder dass der Computer 105 die zweiten Daten 135 nicht nutzt, um das Fahrzeug 101 zu steuern.
-
Üblicherweise sind die zweiten Kameras 130 Kameras, die sich an dem Fahrzeug 101 befinden und unter einer Dachlinie des Fahrzeugs 101 positioniert sind, um ein Sichtfeld aufzuweisen, das Bereiche in der Nähe des Fahrzeugs 101 beinhaltet, die nicht im Sichtfeld der ersten Sensoren 120 beinhaltet sind. Zum Beispiel kann das Fahrzeug 101 vier zweite Kameras 130 beinhalten, eine an einem vorderen Ende des Fahrzeugs 101, eine an einem hinteren Ende des Fahrzeugs 101 und eine jeweils an jedem von dem linken und rechten Seitenspiegel angebracht.
-
Die zweiten Daten 135 sind Bilddaten, die durch die zweiten Kameras 130 aufgenommen werden und dem Computer 105 bereitgestellt werden. Der Computer 105 erfasst die zweiten Daten 135 und überträgt die zweiten Daten 135 zur Auswertung an den Server 145.
-
Der Server 145 ist ein Computer, der programmiert ist, um unter Verwendung von an sich bekannten Bilderkennungstechniken die zweiten Daten 135 zu empfangen und auszuwerten. Auswerten der zweiten Daten 135 im hierin verwendeten Sinne bedeutet, zu bestimmen, ob die zweiten Daten 135 ausreichend sind, um die Art eines Objekts 160, das durch die Daten dargestellt wird, zu bestimmen, und um die Art des Objekts 160 zu bestimmen, falls die Daten ausreichend sind. Die Daten sind „ausreichend, um die Art eines Objekts 160, das durch die Daten dargestellt wird, zu bestimmen“ im hierin verwendeten Sinne bedeutet, dass „der Server 145 in der Lage war, die Art des Objekts 160 auf Grundlage der zweiten Daten 135 unter Verwendung von Programmierung, die die Bilderkennungstechniken implementiert, zu bestimmen“. „Bestimmen der Art des Objekts“ bedeutet Bestimmen, dass die zweiten Daten 135 mit einer gespeicherten Objektart übereinstimmen. Zum Beispiel kann der Server 145 eine Tabelle mit bekannten Objektarten pflegen und die zweiten Daten 135 unter Verwendung von Bilderkennungstechniken mit den Objekten in der Tabelle mit den bekannten Objektarten vergleichen. Falls eine Übereinstimmung gefunden wird, hat der Server 145 die Art des Objekts 160 bestimmt. Der Server 145 ist ferner programmiert, um auf Grundlage der Ergebnisse der Auswertung eine Nachricht an den Computer 105, die angibt, ob die Art des Objekts 160 bestimmt werden konnte, die Art des Objekts 160 und/oder Anweisungen zum Betreiben des Fahrzeugs 101 auf Grundlage der zweiten Daten 135 zu senden.
-
Das Netzwerk 150 stellt einen oder mehrere Mechanismen dar, anhand derer das Fahrzeug 101 und der Server 145 miteinander kommunizieren, und es kann einer oder mehrere von verschiedenen drahtgebundenen oder drahtlosen Kommunikationsmechanismen sein, einschließlich einer beliebigen gewünschten Kombination aus drahtgebundenen (z. B. Kabel und Leitfaser) und/oder drahtlosen (z. B. Mobilfunk, drahtlos, Satellit, Mikrowelle und Funkfrequenz) Kommunikationsmechanismen und einer beliebigen gewünschten Netzwerktopologie (oder Topologien, wenn mehrere Kommunikationsmechanismen verwendet werden). Beispielhafte Kommunikationsnetzwerke beinhalten drahtlose Kommunikationsnetzwerke (z. B. unter Verwendung von einem oder mehreren von Mobilfunk, Bluetooth®, IEEE 802.11 usw.), Local Area Networks (LAN) und/oder Wide Area Networks (WAN), einschließend das Internet, die Datenkommunikationsdienste bereitstellen.
-
Die Arten der drahtlosen Kommunikation können eines oder mehrere von Mobilfunk, Bluetooth®, IEEE 802.11 (typischerweise Wi-Fi®), dezidierten Nahbereichskommunikationen (DSRC), Zweiwegesatellit (z. B. Notfalldienste), Einwegesatellit (z. B. Empfang von digitalen Audiofunkübertragungen), AM/FM Radio usw. beinhalten.
-
2 veranschaulicht ein beispielhaftes Fahrzeug 101, das entlang eines Fahrtwegs 170 fährt. Ein Objekt 160 entlang des Fahrtwegs kann sich in der Nähe des Fahrzeugs 101 befinden. Zum Beispiel kann ein festgelegter Bereich in der Nähe des Fahrzeugs 101 einen Bereich innerhalb einer vorbestimmten Entfernung des Fahrzeugs 101 (z. B. Radius von einem Punkt im Fahrzeug 101) und/oder innerhalb einer vorbestimmten Entfernung des Fahrtwegs 170 des Fahrzeugs 101 bezeichnen. Die vorbestimmte Entfernung zum Fahrtweg 170 kann entlang eines kürzesten geradlinigen Wegs 172 gemessen werden. Der kürzeste geradlinige Weg 172 ist ein Weg zwischen dem Fahrtweg 170 und dem Objekt 160, der senkrecht zum Fahrtweg 170 ist.
-
Die vorbestimmte Entfernung kann eine festgelegte Entfernung, wie etwa 10 Meter, sein. Zusätzlich oder alternativ kann die vorbestimmte Entfernung von der Richtung des Objekts 160 vom Fahrzeug 101 usw. abhängen. Zum Beispiel kann die festgelegte Entfernung innerhalb von zwei Metern vom Fahrzeug 101 auf jeder Seite des Fahrzeugs 101 und/oder innerhalb von 10 Metern vom Fahrtweg des Fahrzeugs 101 liegen. Zusätzlich kann der Computer 105 zum Beispiel dann, wenn das Fahrzeug 101 vorwärts fährt, bestimmen, dass Objekte 160 hinter dem Fahrzeug 101 nicht in der Nähe des Fahrzeugs 101 sind, sogar wenn sie sich innerhalb der festgelegten Entfernung befinden.
-
Als weiteres Beispiel kann ein Bereich in der Nähe zum Fahrzeug 101 teilweise auf Grundlage des Sichtfelds der ersten Sensoren 120 festgelegt werden. Zum Beispiel kann „in der Nähe des Fahrzeugs“ als eine Kombination des Sichtfelds der ersten Sensoren 120 (siehe 5A, 5B, 6 und 7) innerhalb einer vorbestimmten Entfernung vom Fahrzeug 101 und innerhalb einer vorbestimmten Entfernung von dem Weg des Fahrzeugs 101 definiert werden.
-
Der Fahrtweg 170 des Fahrzeugs 101 im hierin verwendeten Sinne ist ein Weg, entlang dem der Computer 105 das Fahrzeug 101 zu führen beabsichtigt. Der Computer 105 kann den Fahrtweg 170 z. B. auf Grundlage einer aktuellen Position des Fahrzeugs 101 und eines Ziels des Fahrzeugs 101 bestimmen.
-
3 veranschaulicht ein beispielhaftes Fahrzeug 101. Das Fahrzeug 101 beinhaltet eine Vielzahl von Radars 110. Das Fahrzeug 101 kann eine Sensorbaugruppe 200 auf einer Oberseite des Fahrzeugs 101 beinhalten. Die Sensorbaugruppe 200 kann eine Vielzahl von ersten Sensoren 120 beinhalten. In einigen Fällen kann die Sensorbaugruppe 200 ferner ein oder mehrere Radars 110 beinhalten.
-
Das Fahrzeug 101 kann ferner eine oder mehrere zweite Kameras 130 beinhalten. In einem Beispiel kann das Fahrzeug 101 vier zweite Kameras 130 beinhalten. Die vier zweiten Kameras 130 können sich unter der Dachlinie 206 des Fahrzeugs 101 jeweils am vorderen Ende 201 des Fahrzeugs 101, am hinteren Ende 202 des Fahrzeugs 101 und an jedem von dem linken und rechten Seitenspiegel 205 befinden. Die Dachlinie 206 ist eine Ebene, an der eine Karosserie des Fahrzeugs 101 von der Oberseite des Fahrzeugs 101 zu den Seiten, der Front oder dem Heck des Fahrzeugs 101 übergeht.
-
Zum Beispiel kann sich eine der zweiten Kameras 130 in einem Kühlergrillbereich am vorderen Ende 201 des Fahrzeugs 101 befinden und kann sich eine zweite Kamera 130 in einem Nummernschildbereich am hinteren Ende 202 des Fahrzeugs 101 befinden, wie in 3 gezeigt ist. Zwei zusätzliche zweite Kameras können sich jeweils an dem linken und rechten Seitenspiegel 205 befinden. Wie nachstehend genauer beschrieben wird, können die zweiten Kameras 130 positioniert sein, um ein Sichtfeld in einem Bereich in der Nähe des Fahrzeugs 101 aufzuweisen, der zumindest teilweise nicht im Sichtfeld der ersten Sensoren 120 beinhaltet ist.
-
Das Fahrzeug 101 kann eine Reinigungseinrichtung beinhalten, die einen Fluidbehälter 220, eine Pumpe 225, Fluidleitungen 230 und Düsen 235 beinhalten kann. Der Fluidbehälter 220 kann Waschwasser enthalten, das auf die zweiten Kameras 130 gesprüht wird. Der Fluidbehälter 220 kann über die Fluidleitung 230 mit einer Pumpe 225 in Fluidverbindung stehen. Die Pumpe 225 kann das Waschfluid von dem Fluidbehälter 220 durch Fluidleitungen 230 und weiter durch Düsen 235 leiten, um das Waschfluid auf z. B. die zweiten Kameras 130 zu sprühen.
-
4 veranschaulicht eine Düse 235, die neben einer zweiten Kamera 130 angeordnet ist. Die Düse 235 ist angeordnet, um Waschfluid auf eine Linse oder Abdeckung der zweiten Kamera 130 zu verteilen, um die Abdeckung oder Linse zu reinigen. Wie oben beschrieben, kann das Fahrzeug 101 eine Düse 235 beinhalten, die jeweils neben einer oder mehreren der zweiten Kameras 130 angeordnet ist. Der Computer 105 kann programmiert sein, um die eine oder mehreren zweiten Kameras 130 vor ihrem Anschalten, um zweite Daten 135 zu erfassen, zu reinigen, indem die Pumpe 225 angeschaltet wird, um Waschfluid durch die jeweiligen Düsen 235 zu pumpen.
-
5A und 5B sind aufgeschnittene perspektivische Ansichten eines beispielhaften Fahrzeugs 101, die ein beispielhaftes Sichtfeld 400 für erste Sensoren 120 und ein beispielhaftes Sichtfeld 405 für die zweiten Kameras 130 beinhalten. Das Sichtfeld 400 für die ersten Sensoren 120 beinhaltet das Sichtfeld 400 jedes der ersten Sensoren 120. Das Sichtfeld 405 für die zweiten Kameras 130 beinhaltet alle Sichtfelder 405 der zweiten Kameras 130.
-
Das Sichtfeld 400 für die ersten Sensoren 120 erstreckt sich von dem Fahrzeug 101 in Richtungen, die das Fahrzeug 101 umgeben, weg und erweitert sich ferner nach oben und unten zu einer „V“-Form, wobei die „V“-Form an den ersten Sensoren 120 beginnt. Das Sichtfeld 400 für die ersten Sensoren 120 beinhaltet einen Bereich auf dem Boden, der das Fahrzeug 101 umgibt. Jedoch beinhaltet das Sichtfeld 400 aufgrund einer Störung durch einen Umriss des Fahrzeugs 101 einen blinden Fleck 410 nicht. Der blinde Fleck 410 ist ein Bereich auf dem Boden benachbart zu dem Fahrzeug 101 und dieses umgebend, der sich nicht in einer Sichtlinie der ersten Sensoren 120 befindet. Das Sichtfeld 400 kann sich soweit vom Fahrzeug 101 weg erstrecken, wie die ersten Sensoren 120 noch Bilddaten auf Grundlage ihrer Empfindlichkeit empfangen können.
-
In einigen Fällen kann sich das Objekt 160 in dem blinden Fleck 410 befinden. In diesem Fall kann das Radar 110 des Fahrzeugs 101 das Objekt 160 erkennen. Jedoch empfängt der Computer 105 keine ersten Daten 125 von den ersten Sensoren 120, mit denen die Art des Objekts 160 bestimmt wird. In diesem Fall ist der Computer 105 programmiert, um das Fahrzeug 101 zu stoppen und die zweiten Kameras 130 anzuschalten, um zu versuchen, die Art des Objekts 160 zu bestimmen.
-
Wie oben beschrieben, können sich die zweiten Kameras 130 am vorderen Ende 201 und am hinteren Ende 202 des Fahrzeugs 101 und an dem linken und rechten Seitenspiegel 205 befinden. Sie können so ausgerichtet sein, dass das Sichtfeld 405 der zweiten Kameras 130 Teile des blinden Flecks 410 oder den gesamten blinden Fleck beinhaltet, die nicht in der Sichtlinie der ersten Sensoren 120 sind. Die zweiten Kameras 130 können Bilddaten von dem blinden Fleck 410 erfassen und dem Computer 105 zweite Daten 135 bereitstellen.
-
6 ist eine Draufsicht auf das beispielhafte Fahrzeug 101 der 5A und 5B, die das Sichtfeld 400 auf Bodenebene und den blinden Fleck 410 benachbart zu dem Fahrzeug 101 zeigt, wenn keine Sichtlinie von den ersten Sensoren 120 vorhanden ist. 6 zeigt außerdem, dass das zweite Sichtfeld 405 einen Teil des blinden Flecks 410 beinhaltet.
-
7 ist eine Seitenansicht des beispielhaften Fahrzeugs 101 der 5A, 5B und 6 und veranschaulicht das Sichtfeld 400 jeweils für die ersten Sensoren 120 und den blinden Fleck 410. 7 veranschaulicht außerdem das Sichtfeld 405 für die zweiten Kameras 130. Wie oben beschrieben, erstreckt sich das Sichtfeld 400 weg von dem Fahrzeug 101 und beinhaltet den blinden Fleck 410 zwischen dem Sichtfeld 400 und dem Fahrzeug 101 nicht. Das zweite Sichtfeld 405 erstreckt sich weg von dem Fahrzeug 101 und nach unten Richtung Boden, sodass das zweite Sichtfeld 405 zumindest einen Teil des blinden Flecks 410 beinhaltet. Auf diese Weise können die zweiten Kameras 130 zweite Daten 135 erfassen, die Objekte 160 innerhalb des blinden Flecks 410 der ersten Sensoren 120 darstellen.
-
8 veranschaulicht einen beispielhaften Prozess 800 zum Bestimmen einer Art eines Objekts 160 in der Nähe des Fahrzeugs 101. Der Prozess 800 beginnt in einem Block 805.
-
Im Block 805 startet der Computer 105, um das Fahrzeug 101 in einem vollständig autonomen Modus zu betreiben. Zum Beispiel kann der Computer 105 als Reaktion auf eine Anweisung von einem Benutzer des Fahrzeugs 101 oder von dem Server 145 damit beginnen, das Fahrzeug 101 im vollständig autonomen Modus zu betreiben. Wenn der Computer 105 startet, um das Fahrzeug 101 im vollständig autonomen Modus zu betreiben, wird der Prozess 800 in einem Block 810 fortgeführt.
-
Im Block 810 bestimmt der Computer 105 auf Grundlage von Radardaten 115, ob sich ein Objekt 160 in der Nähe des Fahrzeugs 101 befindet. Der Computer 105 empfängt die Radardaten 115 von den Radars 110 und wertet sie aus. Auf Grundlage der Auswertung bestimmt der Computer 105, ob die Radardaten 115 ein Objekt 160 in der Nähe des Fahrzeugs 101 angeben. Falls der Computer 105 bestimmt, dass die Radardaten 115 kein Objekt 160 in der Nähe des Fahrzugs 101 angeben, wird der Prozess 800 in einem Block 815 fortgeführt. Falls der Computer 105 bestimmt, dass die Radardaten 115 das Objekt 160 in der Nähe des Fahrzugs 101 angeben, wird der Prozess 800 in einem Block 820 fortgeführt.
-
Im Block 815 bestimmt der Computer 105, ob das Fahrzeug 101 noch in einem vollständig autonomen Modus betrieben wird. Falls der Computer 105 eine Anweisung empfangen hat, das Fahrzeug 101 auszuschalten oder den autonomen Betrieb zu deaktivieren, endet der Prozess 800. Andernfalls wird der Prozess 800 im Block 810 fortgeführt.
-
Im Block 820 erfasst der Computer 105 die ersten Daten 125 von den ersten Sensoren 120. Wie oben beschrieben, arbeiten die ersten Sensoren 120 im Wesentlichen ständig, wenn das Fahrzeug 101 im vollständig autonomen Modus betrieben wird. Einer oder mehrere der ersten Sensoren 120 stellen dem Computer 105 mindestens einmal pro Minute Daten bereit.
-
Als Nächstes, in einem Block 825, bestimmt der Computer 105, ob er die Art des Objekts 160 auf Grundlage der erfassten ersten Daten 125 bestimmen kann. Falls der Computer 105 die Art des Objekts 160 bestimmen kann, tut er dies. Der Prozess 800 wird in einem Block 830 fortgeführt. Falls der Computer 105 die Art des Objekts 160 nicht bestimmen kann, wird der Prozess 800 in einem Block 835 fortgeführt.
-
Im Block 830 nimmt der Computer 105 den Betrieb des Fahrzeugs 101 im vollständig autonomen Modus wieder auf. Der Computer 105 nutzt die Art des Objekts 160, um das Fahrzeug 101 zu steuern. Der Prozess 800 wird im Block 810 fortgeführt.
-
Im Block 835, der dem Block 825 folgt, stoppt der Computer 105 das Fahrzeug 101. Das heißt, der Computer 105 sendet Anweisungen an die Fahrzeugkomponenten 140, um die Bewegung des Fahrzeugs 101 zu stoppen.
-
Als nächstes, in einem Block 840, reinigt der Computer 105 die zweiten Kameras 130. Der Computer 105 sendet Anweisungen an die Pumpe 225, um Waschfluid über die Fluidleitungen 230 zu den Düsen 235 zu pumpen. Wie oben beschrieben, sind die Düsen 235 so angeordnet, dass das Waschfluid über die Linse oder Abdeckungen der zweiten Kameras 130 verteilt wird.
-
Als nächstes, in einem Block 845, schaltet der Computer 105 die zweiten Kameras 130 an. Das heißt, der Computer 105 sendet Anweisungen an die zweiten Kameras 130, um mit dem Erfassen von zweiten Daten 135 zu beginnen und dem Computer 105 die zweiten Daten 135 bereitstellen. Wie oben beschrieben, sind die zweiten Daten 135 Bilddaten, die durch die zweiten Kameras 130 erfasst werden, die der Computer 105 anfordert, um eine Art eines durch ein Radar 110 erkannten Objekts 160 zu bestimmen. Die zweiten Daten 135 beinhalten Bilddaten von Bereichen in der Nähe des Fahrzeugs 101, die nicht im Sichtfeld der ersten Sensoren 120 beinhaltet sind. Der Computer 105 empfängt die zweiten Daten 135 von den zweiten Kameras 130.
-
Als nächstes, in einem Block 850, sendet der Computer 105 die zweiten Daten 135 an den Server 145. Der Computer 105 kann zusätzlich die ersten Daten 125 an den Server 145 senden. Das Fahrzeug 101 kann gestoppt bleiben. Der Prozess 800 wird in einem Block 855 fortgeführt.
-
Im Block 855 bestimmt der Server 145, ob er die Art des Objekts 160 auf Grundlage der zweiten Daten 135 und gegebenenfalls der ersten Daten 125 bestimmen kann. Falls der Server 145 die Art des Objekts 160 bestimmen kann, wird der Prozess 800 im Block 860 fortgeführt. Falls der Server 145 die Art des Objekts 160 nicht bestimmen kann, wird der Prozess 800 in einem Block 865 fortgeführt.
-
Im Block 860 empfängt der Computer 105 eine Nachricht von dem Server 145, die die Objektart angibt. Der Computer 105 nimmt die autonome Steuerung des Fahrzeugs 101 auf Grundlage des Objekts wieder auf. Der Prozess 800 wird im Block 830 fortgeführt.
-
In einem Block 865, der dem Block 855 folgt, empfängt der Computer 105 eine Nachricht von dem Server 145, die angibt, dass der Server 145 nicht in der Lage war, die Objektart zu bestimmen. Der Computer 105 hält das Fahrzeug 101 in einem gestoppten Zustand.
-
Als nächstes, in einem Block 870, unternimmt einer von dem Server 145 und dem Computer 105 Schritte, um den gestoppten Zustand des Fahrzeug 101 zu beheben. Zum Beispiel kann der Server 145 oder der Computer 105 eine Nachricht an einen Techniker senden, die berichtet, dass das Fahrzeug 101 gestoppt ist, und ein Eingreifen anfordert. Der Prozess 800 endet.
-
Im hier verwendeten Sinne bedeutet das ein Adjektiv modifizierende Adverb „im Wesentlichen“, dass eine Form, eine Struktur, ein Maß, ein Wert, eine Berechnung usw. von einer genau beschriebenen Geometrie, einem genau beschriebenen Abstand, einem genau beschriebenen Maß, einem genau beschriebenen Wert, einer genau beschriebenen Berechnung usw. aufgrund von Mängeln hinsichtlich der Materialien, Bearbeitung, Herstellung, Datensammlermessungen, Berechnungen, Verarbeitungszeit, Kommunikationszeit usw. abweichen kann.
-
Der Computer 105 und der Server 145 umfassen im Allgemeinen Anweisungen, die durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend genannten, ausgeführt werden können, und zum Ausführen von vorstehend beschriebenen Blöcken oder Prozessen. Computerausführbare Anweisungen können von Computerprogrammen zusammengestellt oder interpretiert werden, die unter Verwendung einer Vielzahl von Programmiersprachen und/oder -techniken erstellt wurden, darunter unter anderem, entweder allein oder in Kombination, Java™, C, C++, Visual Basic, Java Script, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch er einen oder mehrere Prozesse durchführt, darunter einen oder mehrere der hier beschriebenen Prozesse. Derartige Anweisungen und andere Daten können unter Verwendung einer Vielzahl von computerlesbaren Medien gespeichert und übertragen werden. Eine Datei in dem Computer 105 oder dem Server 145 ist im Allgemeinen eine Sammlung von Daten, die auf einem computerlesbaren Medium gespeichert sind, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw.
-
Zu einem computerlesbaren Medium zählt jedes Medium, das am Bereitstellen von Daten (z. B. Anweisungen), die durch einen Rechner gelesen werden können, beteiligt ist. Ein solches Medium kann viele Formen annehmen, einschließlich unter anderem nichtflüchtiger Medien, flüchtiger Medien usw. Nichtflüchtige Medien beinhalten beispielsweise optische oder magnetische Platten und sonstige Dauerspeicher. Flüchtige Medien schließen einen dynamischen Direktzugriffsspeicher (Dynamic Random Access Memory - DRAM) ein, der üblicherweise einen Hauptspeicher darstellt. Zu häufigen Formen computerlesbarer Medien gehören beispielsweise eine Diskette, eine flexible Disk, eine Festplatte, Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, DVD, ein beliebiges anderes optisches Medium, Lochkarten, Papierband, ein beliebiges anderes physisches Medium mit Lochmustern, ein RAM, ein PROM, ein EPROM, ein FLASH-EEPROM, ein beliebiger anderer Speicherchip oder eine Endlosbandkassette, oder ein beliebiges anderes Medium, das ein Computer auslesen kann.
-
Hinsichtlich der hier beschriebenen Medien, Prozesse, Systeme, Verfahren usw. versteht es sich, dass die Schritte derartiger Prozesse usw. zwar als gemäß einer bestimmten Abfolge erfolgend beschrieben worden sind, derartige Prozesse jedoch derart durchgeführt werden könnten, dass die beschriebenen Schritte in einer anderen Reihenfolge durchgeführt werden als in der hier beschriebenen Reihenfolge. Es versteht sich außerdem, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte hier beschriebene Schritte weggelassen werden könnten. Zum Beispiel können im Prozess 800 einer oder mehrere der Schritte ausgelassen werden oder die Schritte können in einer anderen Reihenfolge als der in 5 gezeigten durchgeführt werden. Mit anderen Worten sind die Beschreibungen von Systemen und/oder Prozessen in der vorliegenden Schrift zum Zwecke der Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollten keinesfalls dahingehend ausgelegt werden, dass sie den offenbarten Gegenstand einschränken.
-
Dementsprechend versteht es sich, dass die vorliegende Offenbarung, einschließlich der vorstehenden Beschreibung und der begleitenden Figuren und nachfolgenden Ansprüche, als veranschaulichend und nicht als einschränkend gedacht ist. Viele Ausführungsformen und Anwendungen, bei denen es sich nicht um die bereitgestellten Beispiele handelt, werden dem Fachmann beim Lesen der vorstehenden Beschreibung ersichtlich sein. Der Umfang der Erfindung sollte nicht unter Bezug auf die obige Beschreibung ermittelt werden, sondern stattdessen unter Bezug auf Ansprüche, die hier beigefügt sind und/oder in einer hierauf basierenden, nicht vorläufigen Patentanmeldung enthalten sind, gemeinsam mit dem vollständigen Umfang von Äquivalenten, zu welchen derartige Ansprüche berechtigen. Es wird erwartet und ist beabsichtigt, dass es hinsichtlich der in der vorliegenden Schrift erläuterten Techniken künftige Entwicklungen geben wird und dass die offenbarten Systeme und Verfahren in solche künftige Ausführungsformen aufgenommen werden. Insgesamt versteht es sich, dass der offenbarte Gegenstand modifiziert und variiert werden kann.
-
Der ein Nomen modifizierende Artikel „ein/e“ sollte dahingehend verstanden werden, dass er einen oder mehrere bezeichnet, es sei denn, es ist etwas anderes angegeben oder der Kontext erfordert etwas anderes. Der Ausdruck „auf Grundlage von/beruhen auf“ beinhaltet teilweise oder vollständig auf Grundlage von/beruhen auf.
-
Gemäß der vorliegenden Erfindung wird einen Computer in einem Fahrzeug bereitgestellt, der einen Prozessor und einen Speicher aufweist, wobei der Speicher durch den Prozessor ausführbare Anweisungen speichert, sodass der Prozessor programmiert ist, um ein Objekt in der Nähe des Fahrzeugs zu erkennen; mindestens eine von einer Vielzahl von Kameras aus einem abgeschalteten Zustand anzuschalten; und das Fahrzeug gemäß einer Objektart, die mit Daten von der mindestens einen der Vielzahl von Kameras bestimmt wird, zu betreiben.
-
Gemäß einer Ausführungsform ist der Prozessor ferner programmiert, um zu bestimmen, dass der Prozessor die Objektart auf Grundlage von Daten von Sensoren, die zu einem Zeitpunkt des Erkennens des Objekts arbeiten, nicht bestimmen kann.
-
Gemäß einer Ausführungsform ist der Prozessor ferner programmiert, um das Fahrzeug zu stoppen, wenn bestimmt wird, dass der Prozessor die Objektart nicht bestimmen kann.
-
Gemäß einer Ausführungsform ist der Prozessor ferner programmiert, um einen Server aufzufordern, die Objektart auf Grundlage der Kameradaten zu bestimmen; eine Nachricht von dem Server zu empfangen, die angibt, dass der Server die Objektart nicht bestimmen kann; und das Fahrzeug in einem gestoppten Zustand zu halten.
-
Gemäß einer Ausführungsform weisen die Sensoren ein erstes Sichtfeld auf und weist die Vielzahl von Kameras ein zweites Sichtfeld auf, das einen Bereich zwischen dem ersten Sichtfeld und dem Fahrzeug beinhaltet.
-
Gemäß einer Ausführungsform befindet sich die Vielzahl von Kameras unter einer Dachlinie des Fahrzeugs.
-
Gemäß einer Ausführungsform befindet sich eine der Vielzahl von Kameras an einem von einem Seitenspiegel des Fahrzeugs, einem vorderen Kühlergrillbereich des Fahrzeugs und einem hinteren Nummernschildbereich des Fahrzeugs.
-
Gemäß einer Ausführungsform ist der Prozessor ferner programmiert, um einen Server aufzufordern, die Objektart auf Grundlage der Daten von der mindestens einen der Vielzahl von Kameras zu bestimmen; und die Objektart von dem Server zu empfangen.
-
Gemäß einer Ausführungsform ist der Prozessor ferner programmiert, um eine oder mehrere der Vielzahl von Kameras zu reinigen.
-
Gemäß einer Ausführungsform beinhaltet das Erkennen des Objekts in der Nähe des Fahrzeugs Programmierung, um zu bestimmen, dass sich das Objekt innerhalb einer vorbestimmten Entfernung von einem Weg des Fahrzeugs befindet.
-
Gemäß der vorliegenden Erfindung beinhaltet ein System eine Vielzahl von Kameras, die an einem Fahrzeug angebracht sein kann; und einen Computer, der einen Prozessor und einen Speicher umfasst, wobei der Speicher durch den Prozessor ausführbare Anweisungen speichert, sodass der Prozessor programmiert ist, um ein Objekt in der Nähe des Fahrzeugs zu erkennen; mindestens eine der Vielzahl von Kameras aus einem abgeschalteten Zustand anzuschalten; und das Fahrzeug gemäß einer Obj ektart, die mit Daten von der mindestens einen der Vielzahl von Kameras bestimmt wird, zu betreiben.
-
Gemäß einer Ausführungsform ist die Erfindung ferner durch Sensoren gekennzeichnet, wobei der Prozessor ferner programmiert ist, um zu bestimmen, dass der Prozessor die Objektart auf Grundlage von Daten von den Sensoren nicht bestimmen kann.
-
Gemäß einer Ausführungsform ist der Prozessor ferner programmiert, um das Fahrzeug zu stoppen, wenn bestimmt wird, dass der Prozessor die Objektart nicht bestimmen kann.
-
Gemäß einer Ausführungsform ist die Erfindung ferner durch einen Server gekennzeichnet, der programmiert ist, um eine Aufforderung von dem Prozessor zu empfangen, die Objektart auf Grundlage der Daten von der mindestens einen der Vielzahl von Kameras zu bestimmen; die Objektart zu bestimmen; und die Objektart an den Prozessor zu senden.
-
Gemäß einer Ausführungsform weisen die Sensoren ein erstes Sichtfeld auf und weist die Vielzahl von Kameras ein zweites Sichtfeld auf, das einen Bereich zwischen dem ersten Sichtfeld und dem Fahrzeug beinhaltet.
-
Gemäß einer Ausführungsform befindet sich eine der Vielzahl von Kameras an einem von einem Seitenspiegel des Fahrzeugs, einem vorderen Kühlergrillbereich des Fahrzeugs und einem hinteren Nummernschildbereich des Fahrzeugs.
-
Gemäß einer Ausführungsform ist die Erfindung ferner durch eine Reinigungseinrichtung gekennzeichnet, wobei der Prozessor ferner programmiert ist, um die Reinigungseinrichtung anzuschalten, um mindestens eine der Kameras zu reinigen.
-
Gemäß der vorliegenden Erfindung beinhaltet ein System eine Bildaufnahmeeinrichtung; eine Verarbeitungseinrichtung; wobei die Verarbeitungseinrichtung programmiert ist, um ein Objekt in der Nähe eines Fahrzeugs zu erkennen; die Bildaufnahmeeinrichtung aus einem abgeschalteten Zustand anzuschalten; und das Fahrzeug gemäß einer Objektart, die mit Daten von der Bildaufnahmeeinrichtung bestimmt wird, zu betreiben.
-
Gemäß einer Ausführungsform ist die Erfindung ferner durch Sensoren gekennzeichnet, wobei die Verarbeitungseinrichtung ferner programmiert ist, um zu bestimmen, dass die Verarbeitungseinrichtung die Objektart auf Grundlage der Sensoren nicht bestimmen kann; das Fahrzeug auf Grundlage des Bestimmens, dass die Verarbeitungseinrichtung die Objektart nicht bestimmen kann, zu stoppen; und eine Reinigungseinrichtung anzuschalten, um die Bildaufnahmeeinrichtung zu reinigen.
-
Gemäß einer Ausführungsform ist die Verarbeitungseinrichtung ferner programmiert, um einen Server aufzufordern, die Objektart auf Grundlage der Daten von der Bildaufnahmeeinrichtung zu bestimmen; eine Nachricht von dem Server zu empfangen, die angibt, dass der Server die Objektart nicht bestimmen kann; und das Fahrzeug in einem gestoppten Zustand zu halten.