DE102017108255A1 - PARALLEL DETECTION OF PRIMITIVES IN A SCENE USING A ROUNDUM CAMERA SYSTEM - Google Patents
PARALLEL DETECTION OF PRIMITIVES IN A SCENE USING A ROUNDUM CAMERA SYSTEM Download PDFInfo
- Publication number
- DE102017108255A1 DE102017108255A1 DE102017108255.7A DE102017108255A DE102017108255A1 DE 102017108255 A1 DE102017108255 A1 DE 102017108255A1 DE 102017108255 A DE102017108255 A DE 102017108255A DE 102017108255 A1 DE102017108255 A1 DE 102017108255A1
- Authority
- DE
- Germany
- Prior art keywords
- road
- views
- primitives
- scene
- parallel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Es werden Techniken zur Detektion von Straßenszenenprimitiven unter Verwendung eines Fahrzeugkamerasystems offenbart. Bei einer beispielhaften Implementierung umfasst ein computerimplementiertes Verfahren, dass durch eine Verarbeitungsvorrichtung, die mindestens zwei parallele Verarbeitungskerne aufweist, mindestens ein Bild von einer Kamera empfangen wird, die mit einem Fahrzeug auf einer Straße verbunden ist. Die Verarbeitungsvorrichtung erzeugt eine Vielzahl von Ansichten aus dem mindestens einen Bild, welche ein Merkmalprimitiv enthalten. Das Merkmalprimitiv zeigt ein Fahrzeug oder andere interessierende Straßenszenenentitäten an. Unter Verwendung jedes der parallelen Verarbeitungskerne wird ein Satz von Primitiven aus einer oder mehreren der Vielzahl von Ansichten identifiziert. Die Merkmalprimitive werden unter Verwendung eines maschinellen Lernens und/oder klassischer Computervisionstechniken identifiziert. Die Verarbeitungsvorrichtung gibt auf der Grundlage der Vielzahl von Ansichten resultierende Primitive auf der Grundlage der Vielzahl von identifizierten Primitiven aus mehreren Ansichten auf der Grundlage der Vielzahl von identifizierten Entitäten aus.Techniques for detecting road scene primitives using a vehicle camera system are disclosed. In an example implementation, a computer-implemented method includes receiving, by a processing device having at least two parallel processing cores, at least one image from a camera connected to a vehicle on a road. The processing device generates a plurality of views from the at least one image containing a feature primitive. The feature primitive indicates a vehicle or other road scene entity of interest. Using each of the parallel processing cores, a set of primitives is identified from one or more of the plurality of views. The feature primitives are identified using machine learning and / or classical computer vision techniques. The processing device outputs primitives resulting from the plurality of views based on the plurality of identified primitives from a plurality of views based on the plurality of identified entities.
Description
QUERVERWEIS AUF VERWANDTE ANMELDUNGCROSS-REFERENCE TO RELATED APPLICATION
Diese Anmeldung beansprucht die Priorität der vorläufigen US-Anmeldung mit der Nummer 62/324,596, die am 19. April 2016 eingereicht wurde und deren gesamter Offenbarungsgehalt hier durch Bezugnahme mit aufgenommen ist.This application claims the benefit of US Provisional Application No. 62 / 324,596, filed Apr. 19, 2016, the entire disclosure of which is incorporated herein by reference.
EINLEITUNGINTRODUCTION
Die vorliegende Offenbarung betrifft allgemein ein System mit mehreren Kameras eines Fahrzeugs und insbesondere ein Kamerasystem mit Rundumblick zur parallelen Detektion, Klassifizierung und Verfolgung von Primitiven.The present disclosure relates generally to a multi-camera system of a vehicle, and more particularly to an all-around camera system for parallel detection, classifying and tracking of primitives.
Ein Fahrzeug, etwa ein Auto, ein Motorrad, ein Schiff oder eine beliebige andere Art von Kraftfahrzeug kann mit einer oder mit mehreren Kameras ausgestattet sein, um Ansichten außerhalb des Fahrzeugs für einen Fahrer, für andere Insassen des Fahrzeugs und für das Wahrnehmungssystem von automatisierten Fahrzeugen bereitzustellen. Beispielsweise kann ein Fahrzeug Front-, Seiten- und/oder Heckkameras enthalten. Fahrzeuge mit Kameras an allen Seiten können ein Rundumblick-Kamerasystem bzw. ”Surround View”-Kamerasystem implementieren, das eine Vogelperspektive oder eine Ansicht von oben auf das Fahrzeug und seine Umgebung bereitstellt. Bilder von den Kameras können dem Fahrer oder einem anderen Insassen des Fahrzeugs auf einer Anzeige im Fahrzeug präsentiert werden, etwa auf dem Armaturenbrett, der Mittelkonsole, einer Heads-up-Anzeige usw. Zusätzlich können Bilder von den Kameras verwendet werden, um Objekte und Straßenmerkmale zu detektieren, die sich außerhalb des Fahrzeugs befinden.A vehicle, such as a car, a motorcycle, a ship, or any other type of motor vehicle, may be equipped with one or more cameras for viewing outside the vehicle for a driver, for other occupants of the vehicle, and for the automated vehicle sensing system provide. For example, a vehicle may include front, side and / or rear cameras. Vehicles with cameras on all sides can implement a surround view camera system that provides a bird's-eye view or top view of the vehicle and its surroundings. Images from the cameras may be presented to the driver or other occupant of the vehicle on a display in the vehicle, such as the dashboard, center console, heads-up display, etc. In addition, images from the cameras may be used to identify objects and road features to detect that are outside the vehicle.
ZUSAMMENFASSUNGSUMMARY
Bei einer beispielhaften Ausführungsform wird ein computerimplementiertes Parallelisierungsverfahren zum Detektieren von Primitiven beschrieben. Das Verfahren umfasst, dass durch eine Verarbeitungsvorrichtung, die mindestens zwei parallele Verarbeitungskerne aufweist, mindestens ein Bild von einer Kamera empfangen wird, die mit einem Fahrzeug auf einer Straße verbunden ist. Die Verarbeitungsvorrichtung erzeugt eine Vielzahl von Ansichten aus dem mindestens einen Bild, welche ein Merkmalprimitiv enthalten. Das Merkmalprimitiv zeigt eine oder mehrere interessierende Straßenszenenentitäten an. Unter Verwendung jedes der parallelen Verarbeitungskerne identifiziert die Verarbeitungsvorrichtung ein Merkmalprimitiv aus einer oder mehreren der Vielzahl von Ansichten. Die Straßenszenenentität wird unter Verwendung von maschinellem Lernen und/oder einer Computervisionstechnik identifiziert. Auf der Grundlage der Vielzahl von Ansichten gibt die Verarbeitungsvorrichtung einen Satz von resultierenden Straßenszenenprimitiven parallel aus. Der Satz von resultierenden Straßenszenenprimitiven beruht auf der identifizierten Straßenszenenentität.In an exemplary embodiment, a computer-implemented parallelization method for detecting primitives is described. The method includes receiving, by a processing device having at least two parallel processing cores, at least one image from a camera connected to a vehicle on a road. The processing device generates a plurality of views from the at least one image containing a feature primitive. The feature primitive indicates one or more street scene entities of interest. Using each of the parallel processing cores, the processing device identifies a feature primitive from one or more of the plurality of views. The street scene entity is identified using machine learning and / or a computer vision technique. Based on the plurality of views, the processing device outputs a set of resulting road scene primitives in parallel. The set of resulting street scene primitives is based on the identified street scene entity.
Bei einer anderen beispielhaften Ausführungsform wird ein System zur parallelen Detektion von Primitiven beschrieben. Das System umfasst eine Vielzahl von Kameras, die mit einem Fahrzeug verbunden sind, einen Speicher, der computerlesbare Anweisungen aufweist, und eine Verarbeitungsvorrichtung, die mindestens zwei parallele Verarbeitungskerne aufweist. Die Verarbeitungsvorrichtung ist ausgestaltet, um mindestens ein Bild von einer Kamera zu empfangen, die mit einem Fahrzeug auf einer Straße verbunden ist. Die Verarbeitungsvorrichtung erzeugt eine Vielzahl von Ansichten aus dem mindestens einen Bild, welche ein Merkmalprimitiv enthalten. Das Merkmalprimitiv zeigt eine oder mehrere interessierende Straßenszenenentitäten an. Unter Verwendung jedes der parallelen Verarbeitungskerne identifiziert die Verarbeitungsvorrichtung eine Straßenszenenentität aus einer oder mehreren der Vielzahl von Ansichten. Die Merkmalprimitive werden unter Verwendung von maschinellem Lernen und/oder einer Computervisionstechnik identifiziert. Auf der Grundlage der Vielzahl von Ansichten gibt die Verarbeitungsvorrichtung einen Satz von resultierenden Straßenszenenprimitiven parallel aus. Der Satz von resultierenden Straßenszenenprimitiven beruht auf der identifizierten Straßenszenenentität.In another exemplary embodiment, a system for parallel detection of primitives is described. The system includes a plurality of cameras connected to a vehicle, a memory having computer readable instructions, and a processing device having at least two parallel processing cores. The processing device is configured to receive at least one image from a camera connected to a vehicle on a road. The processing device generates a plurality of views from the at least one image containing a feature primitive. The feature primitive indicates one or more street scene entities of interest. Using each of the parallel processing cores, the processing device identifies a street scene entity from one or more of the plurality of views. The feature primitives are identified using machine learning and / or a computer vision technique. Based on the plurality of views, the processing device outputs a set of resulting road scene primitives in parallel. The sentence of resulting road scene primitives is based on the identified street scene entity.
Bei noch einer weiteren beispielhaften Ausführungsform umfasst ein Computerprogrammprodukt zur parallelen Detektion von Szenenprimitiven ein computerlesbares Speichermedium, das darin enthaltene Programmanweisungen aufweist. Die Programmanweisungen können von einer Verarbeitungsvorrichtung ausgeführt werden, um zu veranlassen, dass die Verarbeitungsvorrichtung ein Verfahren ausführt. Das Verfahren umfasst, dass von einer Verarbeitungsvorrichtung, die mindestens zwei parallele Verarbeitungskerne aufweist, mindestens ein Bild von einer Kamera empfangen wird, die mit einem Fahrzeug auf einer Straße verbunden ist. Die Verarbeitungsvorrichtung erzeugt eine Vielzahl von Ansichten aus dem mindestens einen Bild, die ein Merkmalprimitiv enthalten. Das Merkmalprimitiv zeigt eine oder mehrere interessierende Straßenszenenentitäten an. Unter Verwendung jedes der parallelen Verarbeitungskerne identifiziert die Verarbeitungsvorrichtung ein Merkmalprimitiv aus einer oder mehreren der Vielzahl von Ansichten. Die Straßenszenenentität wird unter Verwendung von maschinellem Lernen und/oder einer Computervisionstechnik identifiziert. Auf der Grundlage der Vielzahl von Ansichten gibt die Verarbeitungsvorrichtung einen Satz von resultierenden Straßenszenenprimitiven parallel aus. Der Satz von resultierenden Straßenszenenprimitiven beruht auf der identifizierten Straßenszenenentität.In yet another example embodiment, a computer program product for parallel detection of scene primitives comprises a computer readable storage medium having program instructions contained therein. The program instructions may be executed by a processing device to cause the processing device to execute a method. The method includes receiving from a processing device having at least two parallel processing cores at least one image from a camera connected to a vehicle on a road. The processing device generates a plurality of views from the at least one image containing a feature primitive. The feature primitive indicates one or more street scene entities of interest. Using each of the parallel processing cores, the processing device identifies a feature primitive from one or more of the plurality of views. The street scene entity is identified using machine learning and / or a computer vision technique. Based on the plurality of views, the processing device outputs a set of resulting road scene primitives in parallel. The set of resulting street scene primitives is based on the identified street scene entity.
Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale zeigt das resultierende Merkmalprimitiv in Übereinstimmung mit einer anderen Ausführungsform eine Straßenszenenentität an, die ein Fußgänger, ein Verkehrszeichen, ein Verkehrssignal und ein Straßenmerkmal sein kann.In addition to one or more of the features described herein, in accordance with another embodiment, the resulting feature primitive displays a street scene entity, which may be a pedestrian, a traffic sign, a traffic signal, and a road feature.
Bei einer andren beispielhaften Ausführungsform verwendet das maschinelle Lernen ein konvolutionelles neuronales Netzwerk.In another exemplary embodiment, machine learning uses a convolutional neural network.
Bei einer anderen beispielhaften Ausführungsform umfasst das Identifizieren der Straßenszenenentität bei jedem parallelen Verarbeitungskern ferner, dass bei jedem parallelen Verarbeitungskern eine Merkmalsextraktion ausgeführt wird, um die Straßenszenenentität aus einer Ansicht unter Verwendung eines neuronalen Netzwerks zu extrahieren. Die Verarbeitungsvorrichtung führt eine Klassifizierung der Straßenszenenentität unter Verwendung des neuronalen Netzwerks durch.In another exemplary embodiment, identifying the street scene entity in each parallel processing core further includes performing feature extraction on each parallel processing core to extract the street scene entity from a view using a neural network. The processing apparatus performs classification of the street scene entity using the neural network.
Bei noch einer anderen beispielhaften Ausführungsform identifiziert einer oder identifizieren mehrere der parallelen Verarbeitungskerne eine andere Straßenszenenentität aus einer anderen Ansicht als ein anderer der parallelen Verarbeitungskerne.In yet another example embodiment, one or more of the parallel processing cores identifies a different street scene entity from a different view than another of the parallel processing cores.
Bei einer anderen beispielhaften Ausführungsform analysiert ein paralleler Verarbeitungskern eine andere Ansicht als ein anderer der parallelen Verarbeitungskerne.In another exemplary embodiment, a parallel processing kernel analyzes a different view than another of the parallel processing kernels.
Bei einer anderen beispielhaften Ausführungsform enthält die Kamera eine Fischaugenlinse.In another exemplary embodiment, the camera includes a fisheye lens.
Die vorstehenden Merkmale und Vorteile und andere Merkmale und Vorteile der Offenbarung ergeben sich leicht aus der folgenden genauen Beschreibung, wenn sie in Verbindung mit den beiliegenden Zeichnungen gelesen wird.The foregoing features and advantages and other features and advantages of the disclosure will be readily apparent from the following detailed description when read in conjunction with the accompanying drawings.
KURZBESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS
Andere Merkmale, Vorteile und Details erscheinen nur als Beispiel in der folgenden genauen Beschreibung, wobei die genaue Beschreibung auf die Zeichnungen Bezug nimmt, in denen:Other features, advantages and details appear as an example only in the following detailed description, the detailed description of which refers to the drawings, in which:
GENAUE BESCHREIBUNGPRECISE DESCRIPTION
Die folgende Beschreibung ist lediglich beispielhaft und ist nicht dazu gedacht, die vorliegende Offenbarung, ihre Anwendung oder Verwendungsmöglichkeiten zu beschränken. Es versteht sich, dass in den Zeichnungen einander entsprechende Bezugszeichen gleiche oder einander entsprechende Teile und Merkmale bezeichnen. Der Begriff ”Modul” bezeichnet, so wie er hier verwendet wird, eine Verarbeitungsschaltung, die eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert, oder Gruppe) mit Speicher, der ein oder mehrere Software- oder Firmwareprogramme ausführt, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten enthalten kann, welche die beschriebene Funktionalität bereitstellen.The following description is merely exemplary and is not intended to limit the present disclosure, its application, or uses. It is understood that in the drawings, like reference characters designate like or corresponding parts and features. The term "module" as used herein refers to a processing circuit comprising an application specific integrated circuit (ASIC), an electronic circuit, a processor (shared, dedicated, or group) with memory having one or more software components. or execute firmware programs, may include combinational logic circuitry and / or other suitable components that provide the described functionality.
Die hier beschriebenen technischen Lösungen stellen eine allgemeine Detektion von Primitiven in Straßenszenen unter Verwendung einer Kamera eines Fahrzeugs auf parallele Weise bereit. Beispielsweise verwenden die vorliegenden Techniken ein Rundumkamerasystem eines Fahrzeugs, um Straßenmerkmale in einem Nahbereich auf zuverlässige Weise und in Echtzeit zu detektieren, zu verfolgen und zu klassifizieren. Straßenmerkmale umfassen Fahrspurmarkierungen, Verkehrsrichtungsregelungsanzeigen, Bordsteine, Randstreifen und dergleichen, die auf oder in der Nähe der Straßenoberfläche angeordnet sind. Zum Detektieren von Straßenmerkmalen implementieren die vorliegenden Techniken ein Netzwerk zum tiefgehenden Lernen, um eine Detektion und Klassifizierung mehrerer Straßenmerkmale auf parallele Weise in einem Schritt und in Echtzeit zu ermöglichen. Bei einigen Beispielen können die Straßenmerkmale mit anderen Sensoren/Daten im Fahrzeug (z. B. Sensoren mit großer Reichweite, anderen Kameras, LIDAR-Sensoren, Karten usw.) zusammengeführt werden, um die Genauigkeit und Robustheit der Detektion und Klassifizierung zu verbessern. Bei zusätzlichen Beispielen können die Straßenmerkmale zur Eigenabbildung und Schwarmauslagerung bzw. zum Crowdsourcing verwendet werden, um eine Datenbank mit Straßenmerkmalen zu erzeugen und/oder zu aktualisieren.The technical solutions described herein provide for general detection of primitives in street scenes using a camera of a vehicle in a parallel manner. For example, the present techniques utilize an all-around camera system of a vehicle to detect, track, and classify road characteristics in a close range in a reliable manner and in real time. Road features include lane markings, traffic direction control displays, curbs, edge trim, and the like, located on or near the road surface. For detecting road features, the present techniques implement a deep learning network to detect and classify multiple ones To enable road characteristics in parallel in one step and in real time. In some examples, road characteristics may be merged with other sensors / data in the vehicle (eg, long range sensors, other cameras, LIDAR sensors, maps, etc.) to improve the accuracy and robustness of the detection and classification. In additional examples, the road characteristics may be used for self-imaging and swarm outsourcing or crowdsourcing to create and / or update a database of road features.
Merkmalprimitive können, so wie sie hier verwendet werden, ein Fahrzeug, einen Fußgänger, ein Verkehrszeichen oder -signal, eine Straßen- oder Fahrspurmarkierung (für einzelne oder mehrere Spuren), Randsteine, Randstreifen usw. umfassen. Bei einigen Aspekten können Merkmalprimitive Objekte, Straßen/Fahrspurmerkmale, die in Echtzeit zuverlässig detektiert werden, selbst wenn die Straßen/Fahrspurmerkmale durch umgebende Fahrzeuge oder Objekte teilweise verdeckt sind, sein. Weil mehrere Kameras überlappende Abschnitte der gleichen Objekte aufzeichnen, werden ein oder mehrere Bilder verwendet, um das gleiche Primitiv zu detektieren. In anderen Aspekten können unter Verwendung eines einzigen Quellbilds mehrere Primitive detektiert, identifiziert und ausgegeben werden.Feature primitives, as used herein, may include a vehicle, a pedestrian, a traffic sign or signal, a road or lane marker (for single or multiple lanes), curbs, edge trim, and so forth. In some aspects, feature primitives may be objects, road / lane features that are reliably detected in real time, even if the road / lane features are partially obscured by surrounding vehicles or objects. Because multiple cameras record overlapping portions of the same objects, one or more images are used to detect the same primitive. In other aspects, multiple primitives may be detected, identified and output using a single source image.
Verarbeitungsressourcen stellen eine Herausforderung dar, wenn mehrere Straßenszenenprimitive, die interessierende Straßenszenenentitäten anzeigen, aus Bildern/Daten einer hochauflösenden Kamera detektiert werden. Existierende Herangehensweisen verwenden mehrere Algorithmen anstelle eines einheitlichen tiefergehenden neuronalen Netzwerks zum Detektieren der Objekte, Verkehrszeichen, Straßenmerkmale usw. Existierende Algorithmen erfassen ein oder mehrere Bilder zu einem Zeitpunkt als elementare Dateneingabe. Diese existierenden Herangehensweisen sind Hardware/Prozessor-intensiv, zeitraubend, versagen beim Ausnutzen einer modernen Verarbeitungschip-Architektur mit vielen Kernen und sind bei einigen Verarbeitungsszenarien möglicherweise nicht von Vorteil.Processing resources pose a challenge when multiple road scene primitives indicating interest of street scene entities are detected from images / data of a high resolution camera. Existing approaches use multiple algorithms instead of a single in-depth neural network to detect the objects, traffic signs, road features, etc. Existing algorithms capture one or more images at a time as elementary data input. These existing approaches are hardware / processor intensive, time consuming, failing to exploit a modern multi-core processing chip architecture, and may not be beneficial in some processing scenarios.
Beispielhafte Ausführungsformen der Offenbarung umfassen oder liefern verschiedene technische Merkmale, technische Effekte und/oder Verbesserungen der Technologie. Beispielhafte Ausführungsformen der Offenbarung stellen einen hochgradig parallelen Mechanismus zur Detektion von Primitiven unter Verwendung von maschinellem Lernen bereit, um Probleme mit der Rechenineffizienz und Genauigkeit bei einer existierenden Detektion von Szenenprimitiven im Allgemeinen anzusprechen. Insbesondere detektieren die hier beschriebenen Ausführungsformen Straßenszenenprimitive, etwa Fußgänger, Verkehrszeichen, Verkehrssignale und Straßenmerkmale auf der Grundlage eines Bilds von einer Kamera, die mit einem Fahrzeug auf der Straße verbunden ist, indem mehrere Ansichten aus dem Bild erzeugt werden, das ein Merkmalprimitiv enthält, welches ein Fahrzeug und/oder ein anderes Objekt anzeigt, und identifizieren (z. B. unter Verwendung von tiefergehendem Lernen) das Primitiv, das eine interessierende Straßenszenenentität anzeigt, auf parallele Weise unter Verwendung von mindestens zwei parallelen Verarbeitungskernen, und geben ein Ergebnis auf der Grundlage der Ansammlung der Merkmalprimitive aus. Auf der Grundlage der Vielzahl von Ansichten gibt die Verarbeitungsvorrichtung einen Satz von resultierenden Straßenszenenprimitiven auf parallele Weise aus. Der Satz von resultierenden Straßenszenenprimitiven beruht auf der identifizierten Straßenszenenentität. Diese Aspekte der Offenbarung bilden technische Merkmale, welche den technischen Effekt des Verringerns der Rechengesamtbelastung, des Leistungsverbrauchs, der Hardwarekosten und der Zeit liefern.Exemplary embodiments of the disclosure include or provide various technical features, technical effects, and / or improvements to the technology. Exemplary embodiments of the disclosure provide a highly parallel mechanism for detecting primitives using machine learning to address problems with computational inefficiency and accuracy in existing scene primitive detection in general. In particular, the embodiments described herein detect road scene primitives such as pedestrians, traffic signs, traffic signals, and road features based on an image from a camera connected to a vehicle on the road by generating multiple views from the image containing a feature primitive indicates a vehicle and / or other object, and identifies (eg, using deeper learning) the primitive indicating a road scene entity of interest in a parallel manner using at least two parallel processing kernels, and gives a result on the basis the accumulation of the feature primitive. Based on the plurality of views, the processing device outputs a set of resulting road scene primitives in a parallel manner. The set of resulting street scene primitives is based on the identified street scene entity. These aspects of the disclosure provide technical features that provide the technical effect of reducing overall computational load, power consumption, hardware cost, and time.
Folglich verbessern die vorliegenden Techniken die Funktion von Verarbeitungssystemen, die wie hier beschrieben verwendet werden, um Straßenszenenprimitive zu detektieren. Als Ergebnis dieser technischen Merkmale und technischen Effekte stellen die hier beschriebenen Techniken eine Verbesserung zu existierenden Techniken zur Detektion von Straßenmerkmalen dar. Es ist festzustellen, dass die vorstehenden Beispiele von technischen Merkmalen, technischen Effekten und Verbesserungen der Technologie von beispielhaften Ausführungsformen der Offenbarung nur zur Veranschaulichung dienen und nicht umfassend sind.Thus, the present techniques enhance the function of processing systems used as described herein to detect road scene primitives. As a result of these technical features and technical effects, the techniques described herein are an enhancement to existing techniques for detecting road features. It should be understood that the foregoing examples of technical features, technical effects, and enhancements to the technology of exemplary embodiments of the disclosure are by way of illustration only serve and are not comprehensive.
Die Kameras
In Übereinstimmung mit Aspekten der vorliegenden Offenbarung können, obwohl vier Kameras
Es ist festzustellen, dass die erfassten Bilder ein Bild von einer der Kameras
Wie hier beschrieben ist, empfängt das Verarbeitungssystem
Im Speziellen stellt
Die Verarbeitungsvorrichtung
Die verschiedenen Komponenten, Module, Einheiten, usw. die im Hinblick auf
Bei Beispielen können die hier beschriebenen Einheiten eine Kombination aus Hardware und Programmierung sein. Die Programmierung kann aus von einem Prozessor ausführbaren Anweisungen bestehen, die in einem konkreten Speicher gespeichert sind, und die Hardware kann die Verarbeitungsvorrichtung
Die Ansichtserzeugungseinheit
In Übereinstimmung mit Aspekten der vorliegenden Offenbarung verwendet die Ansichtserzeugungseinheit
Sobald die Ansicht erzeugt ist, teilt das Verarbeitungssystem einen oder mehrere Abschnitte des Bilds/der Bilder den Verarbeitungskernen
Nachdem die Straßenszenenentität bei jedem der Verarbeitungskerne
Die Primitivendetektionseinheit
Um Straßenszenenprimitive zu detektieren, verwendet die Primitivendetektionseinheit
In einer oder mehreren Ausführungsformen kann die Funktionalität des maschinellen Lernens unter Verwendung eines künstlichen neuronalen Netzwerks (ANN) implementiert werden, das trainiert werden kann, um eine gegenwärtig unbekannte Funktion auszuführen. In der Wissenschaft des maschinellen Lernens und Erkennens sind ANNs eine Familie von statistischen Lernmodellen, die durch die biologischen neuronalen Netzwerke von Tieren und insbesondere von dem Gehirn inspiriert sind. ANNs können verwendet werden, um Systeme und Funktionen zu schätzen oder zu approximieren, die von einer großen Anzahl von Eingaben abhängen. Bei einer anderen Ausführungsform kann die Funktionalität des maschinellen Lernens unter Verwendung eines konvolutionellen neuronalen Netzwerks (CNN) implementiert werden. Ein CNN ist eine Art von Vorwärtskopplung-ANN. Das maschinelle Lernen kann unter Verwendung eines beliebigen geeigneten Typs von neuronalem Netzwerk implementiert werden.In one or more embodiments, the machine learning functionality may be implemented using an artificial neural network (ANN) that may be trained to perform a currently unknown function. In the science of machine learning and cognition, ANNs are a family of statistical learning models that are inspired by the biological neural networks of animals and especially the brain. ANNs can be used to estimate or approximate systems and functions that depend on a large number of inputs. In another embodiment, the machine learning functionality may be implemented using a convolutional neural network (CNN). A CNN is a type of feed-forward ANN. Machine learning can be implemented using any suitable type of neural network.
ANNs können also sogenannte ”neuromorphe” Systeme aus miteinander verbundenen Prozessorelementen ausgeführt sein, die wie simulierte ”Neuronen” arbeiten und ”Botschaften” untereinander in der Form von elektronischen Signalen austauschen. Ähnlich wie die sogenannte ”Plastizität” von synaptischen Neurotransmitterverbindungen, die Botschaften zwischen biologischen Neuronen transportieren, werden die Verbindungen in ANNs, die elektronische Botschaften zwischen simulierten Neuronen befördern, mit numerischen Gewichtungen versehen, die der Stärke oder Schwäche einer gegebenen Verbindung entsprechen. Die Gewichtungen können auf der Grundlage von Erfahrung justiert und fein abgestimmt werden, wodurch ANNs auf Eingaben anpassbar und fähig zum Lernen gemacht werden. Zum Beispiel wird ein ANN zur Handschrifterkennung durch einen Satz von Eingabeneutronen definiert, die durch die Pixel eines Eingabebilds aktiviert werden können. Nachdem sie gewichtet und von einer Funktion umgeformt wurden, die von dem Entwickler des Netzwerks bestimmt wird, wird die Aktivierung dieser Eingabeneuronen dann an andere stromabwärts gelegene Neuronen weitergegeben, welche oft als ”versteckte” Neuronen bezeichnet werden. Dieser Prozess wird wiederholt, bis ein Ausgabeneuron aktiviert wird. Das aktivierte Ausgabeneuron bestimmt, welches Zeichen gelesen wurde.ANNs can thus be executed so-called "neuromorphic" systems of interconnected processor elements that work like simulated "neurons" and exchange "messages" among themselves in the form of electronic signals. Similar to the so-called "plasticity" of synaptic neurotransmitter compounds that carry messages between biological neurons, the compounds in ANNs that carry electronic messages between simulated neurons are given numerical weights that correspond to the strength or weakness of a given compound. The weights can be adjusted and fine-tuned based on experience, making ANNs adaptable to inputs and capable of learning. For example, an ANN for handwriting recognition is defined by a set of input neutrons that can be activated by the pixels of an input image. After being weighted and reshaped by a function determined by the designer of the network, activation of these input neurons is then passed on to other downstream neurons, often referred to as "hidden" neurons. This process is repeated until an output neuron is activated. The activated output neuron determines which character was read.
Bei der Betrachtung von Ausführungsformen in größerem Detail wird nun
Der Merkmalsextraktionsabschnitt (jeweils
Obwohl sie zum Beispiel als die Verarbeitung von Ansicht
Bei Block
Bei Block
Bei Block
Bei Block
Es versteht sich, dass die vorliegende Offenbarung in Verbindung mit einem beliebigen anderen Typ von Rechenumgebung implementiert werden kann, der nun bekannt ist oder später entwickelt werden wird. Zum Beispiel veranschaulicht
Ferner sind ein Eingabe/Ausgabe-Adapter (I/O-Adapter)
Eine Anzeige (z. B. ein Anzeigemonitor)
Bei einigen Aspekten der vorliegenden Offenbarung enthält das Verarbeitungssystem
Folglich enthält das Verarbeitungssystem
Die Beschreibungen der verschiedenen Beispiele der vorliegenden Offenbarung wurden zu Veranschaulichungszwecken präsentiert, sind aber nicht so gedacht, dass sie umfassend oder auf die offenbarten Ausführungsformen beschränkt sind. Viele Modifikationen und Variationen werden sich dem Fachmann offenbaren, ohne von dem Umfang und dem Geist der beschriebenen Techniken abzuweichen. Die hier verwendete Terminologie wurde gewählt, um die Prinzipien der vorliegenden Techniken und die praktische Anwendung der technischen Verbesserungen gegenüber Technologien, die auf dem Markt anzutreffen sind, am besten erläutern zu können, oder um andere Fachleute in die Lage zu versetzen, die hier offenbarten Techniken zu verstehen.The descriptions of the various examples of the present disclosure have been presented for purposes of illustration, but are not intended to be exhaustive or limited to the disclosed embodiments. Many modifications and variations will be apparent to those skilled in the art without departing from the scope and spirit of the described techniques. The terminology used herein has been chosen to best explain the principles of the present techniques and the practical application of the technical improvements over technologies found in the market, or to enable others skilled in the art to disclose the techniques disclosed herein to understand.
Obwohl die vorstehende Offenbarung mit Bezug auf beispielhafte Ausführungsformen beschrieben worden ist, versteht der Fachmann, dass verschiedene Veränderungen durchgeführt werden können und Elemente derselben durch Äquivalente ersetzt werden können, ohne von ihrem Umfang abzuweichen. Zudem können viele Modifikationen durchgeführt werden, um eine spezielle Situation oder ein spezielles Material an die Lehren der Offenbarung anzupassen, ohne von dem wesentlichen Umfang derselben abzuweichen. Es ist daher beabsichtigt, dass die vorliegenden Techniken nicht auf die speziellen offenbarten Ausführungsformen begrenzt werden, sondern dass sie alle Ausführungsformen enthalten werden, die in den Umfang der Anmeldung fallen.Although the foregoing disclosure has been described with reference to exemplary embodiments, it will be understood by those skilled in the art that various changes may be made and equivalents may be substituted for elements thereof without departing from the scope thereof. In addition, many modifications may be made to adapt a particular situation or material to the teachings of the disclosure without departing from the essential scope thereof. It is therefore intended that the present techniques not be limited to the specific embodiments disclosed, but that they include all embodiments falling within the scope of the application.
Claims (10)
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662324596P | 2016-04-19 | 2016-04-19 | |
US62/324,596 | 2016-04-19 | ||
US15/487,753 | 2017-04-14 | ||
US15/487,753 US10402670B2 (en) | 2016-04-19 | 2017-04-14 | Parallel scene primitive detection using a surround camera system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102017108255A1 true DE102017108255A1 (en) | 2017-10-19 |
Family
ID=59980909
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017108255.7A Withdrawn DE102017108255A1 (en) | 2016-04-19 | 2017-04-19 | PARALLEL DETECTION OF PRIMITIVES IN A SCENE USING A ROUNDUM CAMERA SYSTEM |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102017108255A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017223264A1 (en) * | 2017-12-19 | 2019-06-19 | Robert Bosch Gmbh | Method and device for driving an actuator |
DE102018121866A1 (en) * | 2018-09-07 | 2020-03-12 | Valeo Schalter Und Sensoren Gmbh | Method for depth estimation of two-dimensional sensor data |
EP3594624A3 (en) * | 2018-07-10 | 2020-04-29 | Robert Bosch GmbH | Method for measuring distance, and system for measuring distance |
US10922557B2 (en) | 2018-01-23 | 2021-02-16 | Volkswagen Aktiengesellschaft | Method for processing sensor data in multiple control units, preprocessing unit, and transportation vehicle |
US20210303763A1 (en) * | 2020-03-26 | 2021-09-30 | Mappedin Inc. | Systems and methods for geometry simplification and filtering |
-
2017
- 2017-04-19 DE DE102017108255.7A patent/DE102017108255A1/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017223264A1 (en) * | 2017-12-19 | 2019-06-19 | Robert Bosch Gmbh | Method and device for driving an actuator |
US10922557B2 (en) | 2018-01-23 | 2021-02-16 | Volkswagen Aktiengesellschaft | Method for processing sensor data in multiple control units, preprocessing unit, and transportation vehicle |
EP3594624A3 (en) * | 2018-07-10 | 2020-04-29 | Robert Bosch GmbH | Method for measuring distance, and system for measuring distance |
DE102018121866A1 (en) * | 2018-09-07 | 2020-03-12 | Valeo Schalter Und Sensoren Gmbh | Method for depth estimation of two-dimensional sensor data |
US20210303763A1 (en) * | 2020-03-26 | 2021-09-30 | Mappedin Inc. | Systems and methods for geometry simplification and filtering |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112020002602T5 (en) | MULTI-OBJECT TRACKING USING CORRELATION FILTERS IN VIDEO ANALYSIS APPLICATIONS | |
DE112019000049T5 (en) | OBJECT DETECTION AND DETECTION SECURITY SUITABLE FOR AUTONOMOUS DRIVING | |
DE102017108255A1 (en) | PARALLEL DETECTION OF PRIMITIVES IN A SCENE USING A ROUNDUM CAMERA SYSTEM | |
DE112020002126T5 (en) | DETECTION OF CROSSING POSES IN AUTONOMOUS MACHINE APPLICATIONS | |
DE112019000122T5 (en) | REAL-TIME DETECTION OF TRACKS AND LIMITATIONS BY AUTONOMOUS VEHICLES | |
DE112019000279T5 (en) | CONTROLLING AUTONOMOUS VEHICLES USING SAFE ARRIVAL TIMES | |
DE112020001396T5 (en) | FORM FUSION FOR IMAGE ANALYSIS | |
DE112019006468T5 (en) | DETECTION OF DISTANCE TO OBSTACLES IN APPLICATIONS WITH AUTONOMOUS MACHINERY | |
DE112020006410T5 (en) | THREE-DIMENSIONAL INTERSECTION STRUCTURE PREDICTION FOR AUTONOMOUS DRIVING APPLICATIONS | |
DE102020111271A1 (en) | Estimation of object poses | |
DE112020000369T5 (en) | OBJECT DETECTION USING DISTORTED POLYGONS SUITABLE FOR PARKING DETECTION | |
DE102020132559A1 (en) | TECHNOLOGY FOR THE APPLICATION OF DRIVING STANDARDS FOR THE BEHAVIOR PREDICTION OF AUTOMATED VEHICLES | |
DE112020001897T5 (en) | Training of neural networks using basic truth data supplemented with map information for autonomous machine applications | |
DE102021100065A1 (en) | USE OF NEURONAL NETWORKS FOR ERROR DETECTION IN APPLICATIONS FOR AUTONOMOUS DRIVING | |
DE102020117792A1 (en) | EFFECTIVE USE OF OBSTACLE AND TRACK DETECTION TO DETERMINE TRACK ALLOCATIONS FOR OBJECTS IN AN ENVIRONMENT | |
DE102021123159A1 (en) | ADAPTIVE OBJECT TRACKING ALGORITHM FOR AUTONOMOUS MACHINE APPLICATIONS | |
DE102021126648A1 (en) | IMITATION TRAINING USING SYNTHETIC DATA | |
DE102021125234A1 (en) | DATA EXTENSION INCLUDING BACKGROUND MODIFICATION FOR ROBUST PREDICTION WITH NEURAL NETWORKS | |
DE102019113114A1 (en) | BEHAVIOR-CONTROLLED ROUTE PLANNING IN AUTONOMOUS MACHINE APPLICATIONS | |
US20170300767A1 (en) | Parallel scene primitive detection using a surround camera system | |
DE102020100685A1 (en) | PREDICTION OF TEMPORARY INFORMATION IN AUTONOMOUS MACHINE APPLICATIONS | |
DE112020006181T5 (en) | EYE DETERMINATION WITH GLARE AS INPUT | |
DE102017108248A1 (en) | STREET FEATURE RECOGNITION WITH A VEHICLE CAMERA SYSTEM | |
DE112021000104T5 (en) | PROJECTING IMAGES TAKEN WITH FISHEYE LENSES FOR FEATURE RECOGNITION IN AUTONOMOUS MACHINE APPLICATIONS | |
DE102017208718A1 (en) | Method of detecting objects in an image of a camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |