DE102016207209A1 - STIXEL ESTIMATION AND SEGMENTATION OF THE TRANSPORT PROCESS USING "DEEP LEARNING" - Google Patents

STIXEL ESTIMATION AND SEGMENTATION OF THE TRANSPORT PROCESS USING "DEEP LEARNING" Download PDF

Info

Publication number
DE102016207209A1
DE102016207209A1 DE102016207209.9A DE102016207209A DE102016207209A1 DE 102016207209 A1 DE102016207209 A1 DE 102016207209A1 DE 102016207209 A DE102016207209 A DE 102016207209A DE 102016207209 A1 DE102016207209 A1 DE 102016207209A1
Authority
DE
Germany
Prior art keywords
data
image
vertical
deep learning
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016207209.9A
Other languages
German (de)
Inventor
Dan Levi
Noa Garnett
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/092,853 external-priority patent/US20160217335A1/en
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102016207209A1 publication Critical patent/DE102016207209A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Methoden und Systeme stehen zur Verfügung, um ein Objekt in einem Bild zu erkennen. In einer Ausführungsform umfasst eine Methode Folgendes: den Empfang, über einen Prozessor, von einem einzelnen Sensor, wobei die Daten ein Bild darstellen; die Aufteilung des Bildes durch den Prozessor in vertikale Teilbilder; die Verarbeitung der vertikalen Teilbilder durch den Prozessor, basierend auf Deep-Learning-Modellen; und die Erkennung eines Objektes durch den Prozessor, basierend auf der Verarbeitung.Methods and systems are available to recognize an object in an image. In one embodiment, a method comprises: receiving, via a processor, from a single sensor, the data representing an image; the division of the image by the processor into vertical partial images; the processing of the vertical part images by the processor based on deep learning models; and the recognition of an object by the processor based on the processing.

Description

TECHNISCHER BEREICHTECHNICAL PART

Der technische Bereich bezieht sich im Allgemeinen auf Objekterkennungssysteme und -verfahren. Insbesondere geht es dabei um Objekterkennungssysteme und -verfahren, die basierend auf dem sog. „Deep Learning” („tiefgreifende oder profunde Lernerfahrung”) Objekte erkennen.The technical field generally refers to object recognition systems and methods. In particular, it involves object recognition systems and procedures that recognize objects based on the so-called "deep learning" ("profound or profound learning experience").

HINTERGRUNDBACKGROUND

Verschiedene Systeme bearbeiten Daten, um Objekte in der Nähe des Systems zu erkennen. So entdecken zum Beispiel einige Fahrzeugsysteme Objekte in der Nähe des Fahrzeuges und verwenden die Informationen über das Objekt, um den Fahrer auf das Objekt aufmerksam zu machen und/oder das Fahrzeug zu steuern. Die Fahrzeugsysteme erkennen das Objekt anhand der Sensoren, die überall am und im Fahrzeug verteilt sind. So sind zum Beispiel mehrere Kameras hinten, an den Seiten und/oder an der Vorderseite des Fahrzeugs angebracht, um Objekte zu erkennen. Bilder von mehreren Kameras werden verwendet, um das Objekt basierend auf Stereovision zu erkennen. Mehrere Kameras in einem Fahrzeug oder einem beliebigen System anzubringen erhöht die Gesamtkosten.Different systems process data to detect objects near the system. For example, some vehicle systems detect objects in the vicinity of the vehicle and use the information about the object to alert the driver to the object and / or control the vehicle. The vehicle systems recognize the object based on the sensors, which are distributed throughout the vehicle. For example, multiple cameras are mounted behind, on the sides and / or the front of the vehicle to detect objects. Images from multiple cameras are used to recognize the object based on stereo vision. Mounting multiple cameras in a vehicle or any system increases the overall cost.

Dementsprechend ist es wünschenswert, Methoden und Systeme bereitzustellen, die Objekte in einem Bild aus einer einzigen Kamera erkennen. Weiterhin werden weitere wünschenswerte Funktionen und Merkmale aus der nachfolgenden detaillierten Beschreibung und den beigefügten Ansprüchen in Verbindung mit den beigefügten Zeichnungen und dem vorangegangenen technischen Gebiet und Hintergrund offensichtlich.Accordingly, it is desirable to provide methods and systems that recognize objects in an image from a single camera. Furthermore, other desirable features and characteristics will become apparent from the subsequent detailed description and the appended claims, taken in conjunction with the accompanying drawings and the foregoing technical field and background.

ZUSAMMENFASSUNGSUMMARY

Verfahren und Systeme stehen zur Verfügung, um ein Objekt in einem Bild zu erkennen. In einer Ausführungsform beinhaltet ein Verfahren Folgendes: den Empfang, über einen Prozessor, von einem einzelnen Sensor, wobei die Daten ein Bild darstellen; die Aufteilung des Bildes durch den Prozessor in vertikale Teilbilder; die Verarbeitung der vertikalen Teilbilder durch den Prozessor, basierend auf Deep-Learning-Modellen; und die Erkennung eines Objektes durch den Prozessor, basierend auf der Verarbeitung.Methods and systems are available to recognize an object in an image. In one embodiment, a method includes: receiving, via a processor, from a single sensor, the data representing an image; the division of the image by the processor into vertical partial images; the processing of the vertical part images by the processor based on deep learning models; and the recognition of an object by the processor based on the processing.

In einer Ausführungsform enthält ein System ein nicht vorübergehendes computerlesbares Medium. Das nicht vorübergehende computerlesbare Medium enthält ein erstes Computermodul, das über einen Prozessor Daten von einem einzelnen Sensor empfängt, wobei die Daten ein Bild darstellen. Das nicht vorübergehende computerlesbare Medium enthält ein zweites Computermodul, das über den Prozessor das Bild in vertikale Teilbilder aufteilt. Das nicht vorübergehende computerlesbare Medium enthält ein drittes Computermodul, das über den Prozessor die vertikalen Teilbilder basierend auf Deep-Learning-Modellen verarbeitet, und das über den Prozessor ein Objekt erkennt, basierend auf der Verarbeitung.In one embodiment, a system includes a non-transitory computer-readable medium. The non-transitory computer-readable medium includes a first computer module that receives data from a single sensor via a processor, the data representing an image. The non-transitory computer-readable medium includes a second computer module that divides the image into vertical sub-images via the processor. The non-transitory computer-readable medium includes a third computer module that processes, via the processor, the vertical sub-images based on deep-learning models, and that detects an object through the processor based on the processing.

BESCHREIBUNG DER ZEICHNUNGENDESCRIPTION OF THE DRAWINGS

Die Ausführungsbeispiele werden nachfolgend in Verbindung mit den folgenden Abbildungen (Zeichnungen) beschrieben, worin gleiche Ziffern gleiche Elemente bezeichnen, und worin:The embodiments will be described below in conjunction with the following figures (drawings), wherein like numerals denote like elements, and wherein:

1 ist eine Darstellung eines Fahrzeuges, das ein Objekterkennungssystem Übereinstimmung mit verschiedenen Ausführungsformen enthält; 1 FIG. 11 is an illustration of a vehicle incorporating an object recognition system in accordance with various embodiments; FIG.

2 ist ein Datenflussdiagramm, das ein Objekterkennungsmodul des Objekterkennungssystems in Übereinstimmung mit verschiedenen Ausführungsformen veranschaulicht; 2 FIG. 11 is a data flow diagram illustrating an object recognition module of the object recognition system in accordance with various embodiments; FIG.

3 ist eine Darstellung eines Deep-Learning-Modells in Übereinstimmung mit verschiedenen Ausführungsformen; 3 Figure 12 is an illustration of a deep learning model in accordance with various embodiments;

46 sind Darstellungen von Bildszenen in Übereinstimmung mit verschiedenen Ausführungsformen; und 4 - 6 Fig. 10 are illustrations of image scenes in accordance with various embodiments; and

7 ist ein Flussdiagramm, das eine Objekterkennungsmethode veranschaulicht, die durch das Objekterkennungssystem in Übereinstimmung mit verschiedenen Ausführungsformen durchgeführt werden kann. 7 FIG. 10 is a flowchart illustrating an object recognition method that may be performed by the object recognition system in accordance with various embodiments.

AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION

Die folgende detaillierte Beschreibung dient lediglich als Beispiel und soll nicht die Anwendung und Verwendungen einschränken. Weiterhin besteht keine Absicht, an eine in vorstehendem technischen Bereich, Hintergrund, Kurzzusammenfassung oder der folgenden detaillierten Beschreibung ausdrücklich oder implizit vorgestellte Theorie gebunden zu sein. Es wird darauf hingewiesen, dass in allen Zeichnungen die gleichen Referenznummern auf die gleichen oder entsprechenden Teile und Merkmale verweisen. Der hier verwendete Begriff „Modul” bezieht sich auf eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder Gruppenprozessor) und einen Speicher, der ein oder mehrere Software- oder Firmwareprogramme, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten ausführt, die die beschriebene Funktionalität bieten.The following detailed description is by way of example only and is not intended to limit the application and uses. Furthermore, there is no intention to be bound by any theory expressed or implied in the preceding technical field, background, brief summary or the following detailed description. It should be noted that the same reference numbers refer to the same or corresponding parts and features throughout the drawings. The term "module" as used herein refers to an application specific integrated circuit (ASIC), an electronic circuit, a processor (shared, dedicated, or group processor), and a memory containing one or more software or firmware programs, a combinatorial logic circuit, and / or others performs suitable components that provide the described functionality.

Hier unter Bezugnahme auf 1 zeigt ein Fahrzeug 10, das ein Objekterkennungssystem 12 in Übereinstimmung mit verschiedenen Ausführungsformen umfasst. Wie zu erkennen ist, kann das gezeigte und beschriebene Objekterkennungssystem 12 in verschiedenen Systemen implementiert werden, u. a. nicht mobile Plattformen oder mobile Plattformen, wie z. B. Automobile, Lastkraftwagen, Busse, Motorräder, Züge, Schiffe, Luftfahrzeuge, Drehflügler und dergleichen. Exemplarisch wird die Offenlegung im Kontext des Objekterkennungssystems 12 implementiert im Fahrzeug 10 erörtert. Obwohl somit die schematischen Diagramme hierin exemplarische Anordnungen von Elementen darstellen, können zusätzliche intervenierende Elemente, Vorrichtungen, Funktionen oder Komponenten bei einer aktuellen Ausführungsform vorhanden sein. Es muss auch darauf hingewiesen werden, dass 1 lediglich veranschaulichend und möglicherweise nicht maßstabsgetreu dargestellt ist.Here with reference to 1 shows a vehicle 10 , which is an object recognition system 12 in accordance with various embodiments. As can be seen, the shown and described object recognition system 12 be implemented in different systems, including non-mobile platforms or mobile platforms, such as: As automobiles, trucks, buses, motorcycles, trains, ships, aircraft, rotorcraft and the like. Exemplary is the disclosure in the context of the object recognition system 12 implemented in the vehicle 10 discussed. Thus, while the schematic diagrams herein depict exemplary arrangements of elements, additional intervening elements, devices, functions, or components may be present in a current embodiment. It must also be noted that 1 merely illustrative and may not be drawn to scale.

Das Objekterkennungssystem 12 umfasst einen einzelnen Sensor 14, der einem Objekterkennungsmodul 16 zugeordnet ist. Wie gezeigt, erfasst der einzelne Sensor 14 beobachtbare Bedingungen in der Nähe des Fahrzeuges 10. Der einzelne Sensor 14 kann ein beliebiger Sensor sein, der beobachtbaren Bedingungen in der Nähe des Fahrzeugs 10 spürt, z. B. eine Kamera, ein Lidar, ein Radar usw. Exemplarisch wird die Offenlegung in einem Zusammenhang besprochen, in dem der einzelne Sensor 14 eine Kamera ist, die visuelle Bilder einer Szene außerhalb des Fahrzeuges 10 generiert.The object recognition system 12 includes a single sensor 14 , the object recognition module 16 assigned. As shown, the single sensor captures 14 observable conditions near the vehicle 10 , The single sensor 14 can be any sensor of observable conditions near the vehicle 10 feels, for. As a camera, a lidar, a radar, etc. As an example, the disclosure is discussed in a context in which the individual sensor 14 A camera is the visual images of a scene outside the vehicle 10 generated.

Der einzelne Sensor 14 kann an einer beliebigen Stelle innerhalb oder außerhalb des Fahrzeugs 10 angebracht sein, u. a. an der Vorderseite des Fahrzeuges 10, der linken Seite des Fahrzeuges 10, der rechten Seite des Fahrzeuges 10 und der Rückseite des Fahrzeuges 10. Wie zu erkennen ist, können mehrere Einzelsensoren 14 am Fahrzeug 10 angebracht werden, einer für jede oder eine Kombination der Vorderseite des Fahrzeuges 10, der linken Seite des Fahrzeuges 10, der rechten Seite des Fahrzeuges 10 und der Rückseite des Fahrzeuges 10. Exemplarisch wird die Offenlegung in einem Zusammenhang erörtert, dass das Fahrzeug 10 nur einen Einzelsensor 14 hat.The single sensor 14 can be anywhere within or outside the vehicle 10 be attached, including at the front of the vehicle 10 , the left side of the vehicle 10 , the right side of the vehicle 10 and the back of the vehicle 10 , As can be seen, several individual sensors 14 at the vehicle 10 be attached, one for each or a combination of the front of the vehicle 10 , the left side of the vehicle 10 , the right side of the vehicle 10 and the back of the vehicle 10 , As an example, the disclosure is discussed in a context that the vehicle 10 only a single sensor 14 Has.

Der Einzelsensor 14 erfasst einen Bereich der dem Fahrzeug 10 zugeordnet ist und generiert basierend hierauf Sensorsignale. In verschiedenen Ausführungsformen umfassen die Sensorsignale Bilddaten. Das Objekterkennungsmodul 16 empfängt die Signale und verarbeitet sie, um ein Objekt zu erkennen. In verschiedenen Ausführungsformen erzeugt das Objekterkennungsmodul 16 selektiv Signale, die auf der Erkennung des Objektes basieren. Die Signale werden von einem Steuermodul 18 und/oder einem Alarmmodul 20 empfangen, um das Fahrzeug 10 selektiv zu steuern und/oder um den Fahrer darauf aufmerksam zu machen, das Fahrzeug 10 zu steuern.The single sensor 14 captures an area of the vehicle 10 is assigned and generates sensor signals based thereon. In various embodiments, the sensor signals include image data. The object recognition module 16 receives the signals and processes them to recognize an object. In various embodiments, the object recognition module generates 16 selectively signals based on recognition of the object. The signals are from a control module 18 and / or an alarm module 20 received to the vehicle 10 to selectively control and / or to alert the driver to the vehicle 10 to control.

In verschiedenen Ausführungsformen erfasst das Objekterkennungsmodul 16 das Objekt basierend auf einer Bildverarbeitungsmethode, die die Bilddaten mit Deep-Learning-Modellen verarbeitet. Die Deep-Learning-Modelle können u. a. neuronale Netzwerke, wie etwa Faltungsnetzwerke, enthalten, oder andere Deep-Learning-Modelle, wie etwa Deep-Belief-Netzwerke. Die Deep-Learning-Modelle sind basierend auf einer Vielzahl an Beispielbilddaten vortrainiert.In various embodiments, the object recognition module detects 16 the object based on an image processing method that processes the image data with deep learning models. Deep learning models may include neural networks, such as convolution networks, or other deep learning models, such as deep-belief networks. The deep learning models are pre-trained based on a variety of sample image data.

In verschiedenen Ausführungsformen verarbeitet das Objekterkennungsmodul 16 die Bilddaten unter Verwendung des Deep-Learning-Modells, um Hindernisse und andere Verkehrselemente im Bild zu erhalten. Das Objekterkennungsmodul 16 verwendet die erkannten Elemente, um beispielsweise Straßenaufteilung, Stixel und/oder Objekte innerhalb einer Szene zu erkennen.In various embodiments, the object recognition module processes 16 the image data using the deep learning model to obtain obstacles and other traffic elements in the image. The object recognition module 16 uses the detected elements to detect, for example, road sharing, stixels, and / or objects within a scene.

Unter Bezugnahme hier auf 2, ein Datenflussdiagramm, veranschaulicht verschiedene Ausführungsformen des Objekterkennungsmoduls 16 des Objekterkennungssystems 12 (1). Das Objekterkennungsmodul 16 verarbeitet Bilddaten 30 Übereinstimmung mit verschiedenen Ausführungsformen. Wie zu erkennen ist, können verschiedene Ausführungsformen des Objekterkennungsmoduls 16 in Übereinstimmung mit der vorliegenden Offenlegung eine beliebige Anzahl an Teilmodulen umfassen. So können zum Beispiel die Teilmodule gezeigt in 2 kombiniert und/oder weiter unterteilt werden, um in ähnlicher Weise ein Bild zu verarbeiten und Signale zu erzeugen, die auf der Verarbeitung basieren. Eingaben in das Objekterkennungsmodul 16 können durch den Einzelsensor 14 des Fahrzeugs 10 empfangen werden (1), und zwar empfangen durch andere Steuermodule (nicht gezeigt) des Fahrzeuges 10 (1) und/oder erkannt durch andere Teilmodule (nicht gezeigt) des Objekterkennungsmoduls 16. In verschiedenen Ausführungsformen umfasst das Objekterkennungsmodul 16 einen Modelldatenspeicher 32, ein Bildverarbeitungsmodul 34, ein Deep-Learning-Modul 36, ein Stixelerkennungsmodul 38, ein Objektbestimmungsmodul 40, ein Straßenaufteilungsmodul 42 und/oder ein Signalerzeugungsmodul 44.With reference to here 2 A data flow diagram illustrating various embodiments of the object recognition module 16 of the object recognition system 12 ( 1 ). The object recognition module 16 processes image data 30 Matching with different embodiments. As can be seen, various embodiments of the object recognition module 16 comprise any number of sub-modules in accordance with the present disclosure. For example, the submodules shown in 2 combined and / or further subdivided to similarly process an image and generate signals based on the processing. Entries in the object recognition module 16 can through the single sensor 14 of the vehicle 10 to be received ( 1 ) received by other control modules (not shown) of the vehicle 10 ( 1 ) and / or detected by other sub-modules (not shown) of the object recognition module 16 , In various embodiments, the object recognition module comprises 16 a model data store 32 , an image processing module 34 , a deep learning module 36 , a Stixelerkennungsmodul 38 , an object determination module 40 , a road-sharing module 42 and / or a signal generation module 44 ,

Der Modelldatenspeicher 32 speichert ein oder mehrere Deep-Learning-Modelle 46. Ein exemplarisches Deep-Learning-Modell 46 wird zum Beispiel gezeigt in 3. Das beispielhafte Deep-Learning-Modul 46 ist ein Faltungsnetzwerkmodell. Das Faltungsnetzwerkmodell umfasst mehrere Schichten, einschließlich einer Filterschicht und mehrere Pooling-Schichten. Das Deep-Learning-Modell 46 wird basierend auf einer Vielzahl an Beispielbilddaten gelernt. In verschiedenen Ausführungsformen können die Beispieldaten bestimmte Szenen oder Objekttypen darstellen, die dem Fahrzeug zugeordnet sind.The model data store 32 stores one or more deep learning models 46 , An exemplary deep learning model 46 is shown for example in 3 , The exemplary deep learning module 46 is a Folding network model. The convolutional network model includes multiple layers, including one filtering layer and multiple pooling layers. The deep learning model 46 is learned based on a variety of sample image data. In various embodiments, the example data may represent particular scenes or object types associated with the vehicle.

Unter weiterer Bezugnahme auf 2 empfängt das Bildverarbeitungsmodul 34 als Eingabe die Bilddaten 30, die ein Bild darstellen, das von einem Einzelsensor 14 aufgenommen wurde (1). Das Bildverarbeitungsmodul 34 teilt das Bild in eine Vielzahl Teilbilder 48 auf. Die Vielzahl an Teilbildern 48 enthält zum Beispiel vertikale Abschnitte oder vertikale Streifen des Originalbildes. Wie zu erkennen ist, kann das Bildverarbeitungsmodul 34 das Bild auf verschiedene Arten unterteilen. Die Offenlegung wird exemplarisch im Zusammenhang mit der Aufteilung des Bildes in vertikale Abschnitte oder Streifen durch das Bildverarbeitungsmodul 34 erörtert werden.With further reference to 2 receives the image processing module 34 as input the image data 30 representing an image taken by a single sensor 14 has been recorded ( 1 ). The image processing module 34 divide the picture into a variety of drawing files 48 on. The multitude of partial images 48 contains, for example, vertical sections or vertical strips of the original image. As can be seen, the image processing module 34 Divide the picture in different ways. The disclosure becomes exemplary in connection with the division of the image into vertical sections or stripes by the image processing module 34 be discussed.

Das Bildverarbeitungsmodul 34 bestimmt des Weiteren die Positionsdaten 50 der Teilbilder 48 im Bild. Beispielsweise weist das Bildverarbeitungsmodul 34 jedem Teilbild 48 Positionsdaten 50 basierend auf der Position des Teilbildes im Originalbild zu. So entspricht zum Beispiel die Position, die dem vertikalen Abschnitt zugewiesen wurde, der Position X entlang der Achse X im Bild.The image processing module 34 further determines the position data 50 of the drawing files 48 in the picture. For example, the image processing module 34 every drawing 48 position data 50 based on the position of the partial image in the original image. For example, the position assigned to the vertical section corresponds to position X along the X axis in the picture.

Das Deep-Learning-Modul 36 empfängt als Eingabe die Teilbilder 48 und die entsprechenden Positionsdaten X 50. Das Deep-Learning-Modul 36 verarbeitet jedes Teilbild 48, indem es ein Deep-Learning-Modell 46 verwendet, das im Modelldatenspeicher 32 gespeichert ist. Basierend auf der Verarbeitung generiert das Deep-Learning-Modul 36 Positionsdaten Y 52, die auf den Rand der Verkehrselemente (unter- und/oder oberhalb eines jeden Elements) in jedem Teilbild 48 hinweisen.The deep learning module 36 receives the fields as input 48 and the corresponding position data X 50 , The deep learning module 36 processes every partial image 48 by making a deep learning model 46 used in the model data store 32 is stored. Based on the processing generates the deep learning module 36 Position data Y 52 pointing to the edge of the traffic elements (below and / or above each element) in each field 48 clues.

Das Stixelerkennungsmodul 38 empfängt als Eingabe die Vielzahl an Teilbildern 48, die Positionsdaten X 50 und die Positionsdaten Y 52. Das Stixelerkennungsmodul 38 verarbeitet des Weiteren jedes der vielen Teilbilder, um eine zweite Position Y im Teilbild zu bestimmen. Die zweite Position Y weist auf einen Endpunkt des Objekts im Teilbild hin. Das Stixelerkennungsmodul 38 bestimmt die zweite Position Y im Teilbild basierend auf einem Deep-Learning-Modul 46 aus dem Modelldatenspeicher 32 und/oder anderen Bildverarbeitungstechniken.The stixel detection module 38 receives as input the plurality of fields 48 , the position data X 50 and the position data Y 52 , The stixel detection module 38 Further, each of the many fields is processed to determine a second position Y in the field. The second position Y indicates an endpoint of the object in the field. The stixel detection module 38 determines the second position Y in the field based on a deep learning module 46 from the model data memory 32 and / or other image processing techniques.

Das Stixelerkennungsmodul 38 definiert ein Stixel basierend auf der Position X, der ersten Position Y und der zweiten Position Y eines Teilbildes. Zum Beispiel, wie gezeigt in 4, beginnen die Stixel am festgelegten Ground Truth (Position Y) und enden an der festgelegten zweiten Position Y. Falls beispielsweise die erste Position Y und die zweite Position Y in der Nähe desselben sind, dann kann möglicherweise kein Stixel definiert werden. Das Stixelbestimmungsmodul 38 generiert Stixeldaten 54 basierend auf den definierten Stixeln im Bild.The stixel detection module 38 defines a stixel based on the position X, the first position Y and the second position Y of a field. For example, as shown in 4 , the stixels begin at the designated ground truth (position Y) and end at the designated second position Y. For example, if the first position Y and the second position Y are in the vicinity thereof, then a stixel may not be defined. The stixel determination module 38 generates stix data 54 based on the defined pixels in the image.

Unter weiterer Bezugnahme auf 2 empfängt das Objektbestimmungsmodul 40 als Eingabe die Vielzahl an Teilbildern 48, die Positionsdaten X 50 und die Positionsdaten Y 52. Das Objektbestimmungsmodul 40 bestimmt das Vorhandensein eines Objektes basierend auf den Teilbilddaten 48 und den Positionsdaten Y 52. So verarbeitet zum Beispiel das Objektbestimmungsmodul 40 das erfasste Bild basierend auf zusätzlichen Verarbeitungsmethoden (z. B. Einschätzung des optischen Flusses oder andere Methoden), um festzustellen, ob im Bild ein Objekt oberhalb der ermittelten Position Y vorhanden ist. Wie gezeigt in 5, generiert das Objektbestimmungsmodul 40 Objektdaten 56, die auf die Position X und die Position Y der festgestellten Objekte in den Teilbildern hinweisen.With further reference to 2 receives the object determination module 40 as input the multitude of partial images 48 , the position data X 50 and the position data Y 52 , The object determination module 40 determines the presence of an object based on the subpicture data 48 and the position data Y 52 , For example, the object determination module processes 40 the captured image based on additional processing techniques (eg, estimating the optical flow or other methods) to determine if an object is present in the image above the detected position Y. As shown in 5 , generates the object determination module 40 object data 56 which indicate the position X and the position Y of the detected objects in the sub-images.

Unter weiterer Bezugnahme auf 2 empfängt das Straßenaufteilungsmodul 42 als Eingabe die Vielzahl an Teilbildern 48, die Positionsdaten X 50 und die Positionsdaten Y 52. Das Straßenaufteilungsmodul 42 schätzt die Teilbilddaten 48 und die Positionsdaten Y 52, um einen Umriss einer Straße in einer Szene zu ermitteln. Zum Beispiel, wie gezeigt in 6, schätzt das Straßenaufteilungsmodul 42 jede Reihe des Teilbildes und definiert die Straßenaufteilung basierend auf der ersten und der letzten Position X in der Reihe, die eine damit zusammenhängende Position Y aufweisen. Das Straßenaufteilungsmodul 42 generiert Straßenaufteilungsdaten 58 basierend auf der ersten und letzten Position X aller Reihen des Bildes.With further reference to 2 receives the road partitioning module 42 as input the multitude of partial images 48 , the position data X 50 and the position data Y 52 , The road-partitioning module 42 estimates the subpicture data 48 and the position data Y 52 to find an outline of a street in a scene. For example, as shown in 6 , estimates the road splitting module 42 each row of the field and defines the road layout based on the first and last position X in the series having a contiguous position Y. The road-partitioning module 42 generates roadmap data 58 based on the first and last position X of all rows of the image.

Unter weiterer Bezugnahme auf 2 empfängt das Signalgeneratormodul 44 als Eingabe die Stixeldaten 54, die Objektdaten 56 und/oder die Straßenaufteilungsdaten 58. Das Signalgeneratormodul 44 bewertet die Stixeldaten 54, die Objektdaten 56 und/oder die Straßenaufteilungsdaten 58 und generiert selektiv ein Alarmsignal 60 und/oder ein Kontrollsignal 62, basierend auf der Bewertung. Wenn zum Beispiel eine Bewertung der Stixeldaten 54 und/oder der Objektdaten 56 darauf hinweist, dass das Objekt eine Bedrohung darstellt, dann wird ein Alarmsignal 60 und/oder ein Kontrollsignal 62 erzeugt. Ein anderes Beispiel wäre, dass, falls die Bewertung der Straßenaufteilungsdaten 58 darauf hinweist, dass das Fahrzeug 10 von der Straße abkommt, dann ein Warnsignal 60 und/oder ein Kontrollsignal 62 generiert wird. Wie zu erkennen ist, können die Stixeldaten 54, die Objektdaten 56 und/oder die Straßenaufteilungsdaten 58 bewertet werden. Signale basierend auf anderen Kriterien als den beschriebenen sind lediglich Beispiel.With further reference to 2 receives the signal generator module 44 as input the Stixeldaten 54 , the object data 56 and / or the road distribution data 58 , The signal generator module 44 rates the stix data 54 , the object data 56 and / or the road distribution data 58 and selectively generates an alarm signal 60 and / or a control signal 62 , based on the rating. If, for example, a rating of the Stixeldaten 54 and / or the object data 56 indicating that the object is a threat, then an alarm signal 60 and / or a control signal 62 generated. Another example would be that if the assessment of the road distribution data 58 indicating that the vehicle 10 comes off the street, then a warning signal 60 and / or a control signal 62 is generated. As can be seen, the Stixeldaten 54 , the object data 56 and / or the road distribution data 58 be rated. Signals based on criteria other than those described are merely examples.

Unter Bezugnahme hier auf 7 und mit weiterem Bezug auf 1 und 2, zeigt ein Flussdiagramm eine Objekterkennungsmethode 100, die ausgeführt wird durch das Objekterkennungssystem 12 der 1 und 2 in Übereinstimmung mit verschiedenen Ausführungsformen. Wie im Hinblick auf die Offenlegung zu sehen ist, ist die Reihenfolge des Betriebs innerhalb der Methode 100 nicht beschränkt auf die sequenzielle Abfolge, wie in 7 dargestellt, sondern kann in einer oder mehreren Variationen ausgeführt werden, je nach Eignung und Übereinstimmung mit der vorliegenden Offenlegung.With reference to here 7 and with further reference to 1 and 2 1, a flowchart shows an object recognition method 100 which is executed by the object recognition system 12 of the 1 and 2 in accordance with various embodiments. As can be seen in the disclosure, the order of operation is within the method 100 not limited to the sequential order as in 7 but may be implemented in one or more variations, as appropriate and consistent with the present disclosure.

Wie des Weiteren zu erkennen ist, kann die Methode aus 7 so geplant werden, dass sie in vorgegebenen Zeitintervallen während des Betriebs des Fahrzeuges 10 durchgeführt wird und/oder so geplant wird, dass sie basierend auf vorgegebenen Ereignissen ausgeführt wird.As can further be seen, the method may look 7 be scheduled to operate at predetermined time intervals during operation of the vehicle 10 is performed and / or scheduled to run based on predetermined events.

In einem Beispiel beginnt die Methode eventuell bei 105. Die Bilddaten 30 werden bei 110 empfangen. Aus den Bilddaten 30 werden bei 120 die Teilbilder 48 ermittelt, und bei 130 die Positionsdaten X 50 der Teilbilder 48. Die Teilbilder 48 werden unter Verwendung eines Deep-Learning-Modells 46 bei 140 verarbeitet, um die Positionsdaten Y 52 zu ermitteln. Die Teilbilder 48, die Positionsdaten X 50 und die Positionsdaten Y 52 werden dann bei 150, 160 und/oder 170 verarbeitet, um zumindest jeweils eines der Stixeldaten 54, der Objektdaten 56 und/oder der Straßenaufteilungsdaten 58 zu ermitteln. Die Stixeldaten 54, die Objektdaten 56 und/oder die Straßenaufteilungsdaten 58 werden bei 180 bewertet und dazu verwendet, selektiv die Kontrollsignale 62 und/oder Warnsignale 60 bei 190 zu erzeugen. Danach kann die Methode bei 200 enden.In one example, the method may start at 105 , The image data 30 become at 110 receive. From the image data 30 become at 120 the drawing files 48 determined, and at 130 the position data X 50 of the drawing files 48 , The drawing files 48 be using a deep learning model 46 at 140 processed to the position data Y 52 to investigate. The drawing files 48 , the position data X 50 and the position data Y 52 then join 150 . 160 and or 170 processed to at least one of the Stixeldaten 54 , the object data 56 and / or the road distribution data 58 to investigate. The Stixeldaten 54 , the object data 56 and / or the road distribution data 58 become at 180 evaluated and used to selectively control the control signals 62 and / or warning signals 60 at 190 to create. After that, the method can be used 200 end up.

Während mindestens ein Ausführungsbeispiel in der vorstehenden detaillierten Beschreibung vorgestellt wurde, versteht sich, dass es eine Vielzahl an Varianten gibt. Es versteht sich weiterhin, dass das Ausführungsbeispiel oder Ausführungsbeispiele lediglich Beispiele sind und den Umfang, die Anwendbarkeit oder die Konfiguration dieser Offenlegung nicht in irgendeiner Weise einschränken sollen. Vorstehende detaillierte Beschreibung bietet Fachleuten vielmehr eine zweckmäßige Roadmap zur Implementierung des Ausführungsbeispiels oder von Ausführungsbeispielen. Es versteht sich, dass verschiedene Veränderungen an der Funktion und der Anordnung von Elementen vorgenommen werden können, ohne vom Rahmen der Offenlegung, wie sie in den beigefügten Ansprüchen und deren rechtlichen Entsprechungen aufgeführt werden, abzuweichen.While at least one embodiment has been presented in the foregoing detailed description, it should be understood that there are a variety of variations. It is further understood that the embodiment or embodiments are merely examples and are not intended to limit the scope, applicability, or configuration of this disclosure in any way. The foregoing detailed description rather provides those skilled in the art with a convenient roadmap for implementing the embodiment or embodiments. It is understood that various changes can be made in the function and arrangement of elements without departing from the scope of the disclosure as set forth in the appended claims and their legal equivalents.

Claims (10)

Verfahren zum Erkennen eines Objekts, umfassend: Empfang durch einen Prozessor von Daten aus einem Einzelsensor, wobei die Daten ein Bild darstellen; Aufteilung des Bildes durch den Prozessor in vertikale Teilbilder; Verarbeitung der vertikalen Teilbilder durch den Prozessor, basierend auf Deep-Learning-Modellen; und Erkennung eines Objektes durch den Prozessor, basierend auf der Verarbeitung.A method of recognizing an object, comprising: Receiving by a processor data from a single sensor, the data representing an image; Division of the image by the processor into vertical sub-images; Processing of the vertical part images by the processor based on deep learning models; and Detection of an object by the processor based on the processing. Verfahren nach Anspruch 1, des Weiteren umfassend das Zuweisen von Positionsdaten zu jeder Ebene der vertikalen Teilbilder, basierend auf einem Ort der vertikalen Teilbilder im Bild.The method of claim 1, further comprising assigning position data to each level of the vertical fields based on a location of the vertical fields in the image. Verfahren nach Anspruch 2, worin die Positionsdaten eine Position X entlang einer X-Achse des Bildes beinhalten.The method of claim 2, wherein the position data includes a position X along an X-axis of the image. Verfahren nach Anspruch 1, worin die Verarbeitung der vertikalen Teilbilder des Weiteren das Verarbeiten der vertikalen Teilbilder unter Verwendung des Deep-Learning-Modells beinhalten, um Begrenzungen von Straßenelementen in den vertikalen Teilbildern festzustellen.The method of claim 1, wherein the processing of the vertical fields further includes processing the vertical fields using the deep learning model to determine boundaries of road elements in the vertical fields. Verfahren nach Anspruch 4, worin jede Begrenzung eines Straßenelements mindestens eine untere Begrenzung, eine obere Begrenzung und eine Begrenzung oben und unten beinhaltet.The method of claim 4, wherein each boundary of a road element includes at least a lower boundary, an upper boundary, and a top and bottom boundary. Verfahren nach Anspruch 4, worin jede Begrenzung eine Position Y entlang einer Y-Achse des vertikalen Teilbildes beinhaltet.The method of claim 4, wherein each boundary includes a position Y along a Y-axis of the vertical field. Verfahren nach Anspruch 4, das des Weiteren das Verarbeiten von Daten oberhalb der Begrenzungen umfasst, und zwar unter Verwendung einer Bildverarbeitungstechnik, um festzustellen, ob im vertikalen Teilbild oberhalb der Begrenzungen ein oder mehrere Objekte vorhanden sind.The method of claim 4, further comprising processing data above the boundaries using an image processing technique to determine if one or more objects are present in the vertical subpicture above the boundaries. Verfahren nach Anspruch 4, das des Weiteren das Feststellen Festlegung eines Umrisses einer Straße im Bild, basierend auf den Begrenzungen und den vertikalen Teilbildern, umfasst.The method of claim 4, further comprising determining an outline of a road in the image based on the boundaries and the vertical fields. Verfahren nach Anspruch 1, das des Weiteren das Feststellen von Stixeldaten basierend auf den vertikalen Teilbildern und den Deep-Learning-Modellen umfasst.The method of claim 1, further comprising determining stix data based on the vertical fields and the deep learning models. Verfahren nach Anspruch 9, worin die Feststellung des Objektes auf den Stixeldaten basiert.The method of claim 9, wherein the detection of the object is based on the stix data.
DE102016207209.9A 2015-05-01 2016-04-27 STIXEL ESTIMATION AND SEGMENTATION OF THE TRANSPORT PROCESS USING "DEEP LEARNING" Withdrawn DE102016207209A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562155948P 2015-05-01 2015-05-01
US62/155,948 2015-05-01
US15/092,853 2016-04-07
US15/092,853 US20160217335A1 (en) 2009-02-27 2016-04-07 Stixel estimation and road scene segmentation using deep learning

Publications (1)

Publication Number Publication Date
DE102016207209A1 true DE102016207209A1 (en) 2016-11-03

Family

ID=57135985

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016207209.9A Withdrawn DE102016207209A1 (en) 2015-05-01 2016-04-27 STIXEL ESTIMATION AND SEGMENTATION OF THE TRANSPORT PROCESS USING "DEEP LEARNING"

Country Status (2)

Country Link
CN (1) CN106096493A (en)
DE (1) DE102016207209A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10860034B1 (en) 2017-09-27 2020-12-08 Apple Inc. Barrier detection
US20230053786A1 (en) * 2021-08-19 2023-02-23 Ford Global Technologies, Llc Enhanced object detection

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190072978A1 (en) * 2017-09-01 2019-03-07 GM Global Technology Operations LLC Methods and systems for generating realtime map information
CN109508673A (en) * 2018-11-13 2019-03-22 大连理工大学 It is a kind of based on the traffic scene obstacle detection of rodlike pixel and recognition methods
WO2021056309A1 (en) * 2019-09-26 2021-04-01 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for detecting road markings from a laser intensity image

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4797794B2 (en) * 2006-05-24 2011-10-19 日産自動車株式会社 Pedestrian detection device and pedestrian detection method
US8385599B2 (en) * 2008-10-10 2013-02-26 Sri International System and method of detecting objects
CN102930274B (en) * 2012-10-19 2016-02-03 上海交通大学 A kind of acquisition methods of medical image and device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10860034B1 (en) 2017-09-27 2020-12-08 Apple Inc. Barrier detection
US20230053786A1 (en) * 2021-08-19 2023-02-23 Ford Global Technologies, Llc Enhanced object detection
US11922702B2 (en) * 2021-08-19 2024-03-05 Ford Global Technologies, Llc Enhanced object detection

Also Published As

Publication number Publication date
CN106096493A (en) 2016-11-09

Similar Documents

Publication Publication Date Title
DE102018116111B4 (en) A unified deep convolutional neural network for free space estimation, object recognition estimation, and object pose estimation
DE102017201717B4 (en) Method for using a rear vision system for a host vehicle and rear vision system for carrying out the method
DE102017201852B4 (en) Parking assistance system for a vehicle and a method for using it
DE102016207209A1 (en) STIXEL ESTIMATION AND SEGMENTATION OF THE TRANSPORT PROCESS USING "DEEP LEARNING"
DE102015121339B4 (en) SYSTEMS AND METHODS FOR DETERMINING A CONDITION OF A ROAD
EP2569953B1 (en) Optical self-diagnosis of a stereoscopic camera system
DE102017120112A1 (en) DEPTH CARE VALUATION WITH STEREO IMAGES
DE102016122190A1 (en) Stixel estimation methods and systems
DE102015208782A1 (en) Object detection device, driving support device, object detection method, and object detection program
WO2015173092A1 (en) Method and apparatus for calibrating a camera system in a motor vehicle
DE102012222963A1 (en) Apparatus and method for detecting a three-dimensional object using an image of the surroundings of a vehicle
WO2020207528A1 (en) Method and processing unit for ascertaining the size of an object
DE112016003517T5 (en) Apparatus for displaying assistance images for a driver and method thereto
DE102014227032A1 (en) System for filtering LiDAR data in a vehicle and corresponding method
DE102015201747A1 (en) SENSOR SYSTEM FOR A VEHICLE AND METHOD
DE102011111440A1 (en) Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment
DE112016003546T5 (en) Apparatus for displaying assistance images for a driver and method thereto
DE102006005512A1 (en) System and method for measuring the distance of a preceding vehicle
DE102012223360A1 (en) Apparatus and method for detecting an obstacle to an all-round surveillance system
DE112018007485T5 (en) Road surface detection device, image display device using a road surface detection device, obstacle detection device using a road surface detection device, road surface detection method, image display method using a road surface detection method, and obstacle detection method using a road surface detection method
DE102013226476A1 (en) IMAGE PROCESSING SYSTEM AND SYSTEM OF A ROUND MONITORING SYSTEM
DE102016106293A1 (en) Dynamic Stixel estimation using a single moving camera
DE102011118171A1 (en) Method for continuous estimation of driving surface plane of motor vehicle, involves determining current three-dimensional points of surrounding of motor vehicle from current image of image sequence of image capture device
DE102011082881A1 (en) Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information
DE102013012780A1 (en) Method for detecting a target object by clustering characteristic features of an image, camera system and motor vehicle

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: SCHWEIGER & PARTNERS, DE

R082 Change of representative

Representative=s name: SCHWEIGER & PARTNERS, DE

R082 Change of representative

Representative=s name: SCHWEIGER & PARTNERS, DE

R082 Change of representative

Representative=s name: SCHWEIGER & PARTNERS, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee