DE102018130821A1 - Method for assessing an environment of a motor vehicle using an artificial neural network with an aggregation unit; Control unit, driver assistance system and computer program product - Google Patents
Method for assessing an environment of a motor vehicle using an artificial neural network with an aggregation unit; Control unit, driver assistance system and computer program product Download PDFInfo
- Publication number
- DE102018130821A1 DE102018130821A1 DE102018130821.3A DE102018130821A DE102018130821A1 DE 102018130821 A1 DE102018130821 A1 DE 102018130821A1 DE 102018130821 A DE102018130821 A DE 102018130821A DE 102018130821 A1 DE102018130821 A1 DE 102018130821A1
- Authority
- DE
- Germany
- Prior art keywords
- resolution
- image
- motor vehicle
- neural network
- artificial neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Beurteilen einer Umgebung eines Kraftfahrzeugs (1) anhand eines Bildes eines Kamerasystems des Kraftfahrzeugs (1). Um eine verbesserte Erfassung der Umgebung zu ermöglichen, sind die folgenden Schritte vorgesehen:- Bereitstellen des Bildes der Umgebung von einer Kamera (2) des Kraftfahrzeugs (1),- Reduzieren einer Auflösung des Bildes von einer Eingangsauflösung auf eine verringerte Zwischenauflösung durch einen Eingangsteil (4) eines künstlichen neuronalen Netzes und Bereitstellen eines entsprechenden jeweiligen Zwischenbildsignals (A,B,C) mit der Zwischenauflösung,- Reduzieren einer Auflösung des Bildes von der Zwischenauflösung auf eine nochmals verringerte Arbeitsauflösung durch den Eingangsteil (4) des künstlichen neuronalen Netzes und Bereitstellen eines entsprechenden Arbeitsbildsignals (D) mit der Arbeitsauflösung,- Zusammenfassen des Zwischenbildsignals (A,B,C) und des Arbeitsbildsignals (D) zu einem gemeinsamen Auswertesignal durch eine Aggregationseinheit (5) des künstlichen neuronalen Netzes, und- Beurteilen der Umgebung durch Auswerten des gemeinsamen Auswertesignals durch einen Auswerteeinheit (6) des künstlichen neuronalen Netzes.The invention relates to a method for assessing the surroundings of a motor vehicle (1) using an image of a camera system of the motor vehicle (1). In order to enable an improved detection of the surroundings, the following steps are provided: - providing the image of the surroundings from a camera (2) of the motor vehicle (1), - reducing a resolution of the image from an input resolution to a reduced intermediate resolution by an input part ( 4) an artificial neural network and providing a corresponding intermediate image signal (A, B, C) with the intermediate resolution, - reducing a resolution of the image from the intermediate resolution to a further reduced working resolution by the input part (4) of the artificial neural network and providing one corresponding working image signal (D) with the working resolution, - combining the intermediate image signal (A, B, C) and the working image signal (D) into a common evaluation signal by an aggregation unit (5) of the artificial neural network, and - assessing the environment by evaluating the common one Evaluation signals by an evaluator unit (6) of the artificial neural network.
Description
Die Erfindung betrifft ein Verfahren zum Beurteilen einer Umgebung eines Kraftfahrzeugs anhand eines Bildes eines Kamerasystems des Kraftfahrzeugs. Außerdem betrifft die Erfindung eine Steuereinheit, ein Fahrerassistenzsystem, ein Computerprogrammprodukt sowie ein computerlesbares Medium.The invention relates to a method for assessing an environment of a motor vehicle on the basis of an image of a camera system of the motor vehicle. The invention also relates to a control unit, a driver assistance system, a computer program product and a computer-readable medium.
Fahrerassistenzsysteme benötigen für ihre Funktion häufig Informationen über eine Umgebung eines Kraftfahrzeugs. Beispiele für Fahrerassistenzsysteme sind Notbremsassistenten, Spurhalteassistenten und Systeme, die autonomes Fahren/Einparken ermöglichen. Beispielsweise können solche Informationen die Position von Objekten in der Umgebung des Kraftfahrzeugs betreffen. Beispiele für solche Objekte, deren Position für das Funktionieren des Fahrerassistenzsystems notwendig sein kann, sind Fahrbahnbegrenzungen, Bordsteine, Fahrbahnmarkierungen, andere Verkehrsteilnehmer (Fahrzeuge, Fußgänger, Radfahrer), parkende Fahrzeuge und/oder mögliche Kollisionspartner, mit denen das Kraftfahrzeug während einer Fahrt kollidieren könnte.Driver assistance systems often require information about an environment of a motor vehicle in order to function. Examples of driver assistance systems are emergency braking assistants, lane keeping assistants and systems that enable autonomous driving / parking. For example, such information can relate to the position of objects in the surroundings of the motor vehicle. Examples of such objects, the position of which may be necessary for the functioning of the driver assistance system, are lane boundaries, curbs, lane markings, other road users (vehicles, pedestrians, cyclists), parked vehicles and / or possible collision partners with whom the motor vehicle could collide during a journey .
Zum Erfassen von Objekten in der Umgebung sind beispielsweise Kamerasysteme bekannt, wobei ein solches Kamerasystem eine oder mehrere Kameras umfassen kann. Eine solche Kamera kann die Umgebung des Kraftfahrzeugs in Form von Bildern, insbesondere einem Videosignal, welches eine Folge an Einzelbildern (Frames) umfasst, erfassen. Aus diesen Bildern müssen die nötigen Informationen jedoch zunächst extrahiert werden. Zum Erkennen von Objekten ist beispielsweise eine sogenannte Segmentierung von Bildern bekannt. Dabei werden in dem Bild unterschiedliche Segmente erkannt und auf ihren Bedeutungsgehalt hin untersucht. Aus diesem Grund ist auch häufig von semantischer Segmentierung die Rede. Es werden somit unterschiedliche Bildbereiche erfasst und semantisch analysiert.For example, camera systems are known for capturing objects in the environment, and such a camera system can comprise one or more cameras. Such a camera can capture the surroundings of the motor vehicle in the form of images, in particular a video signal, which comprises a sequence of individual images (frames). However, the necessary information must first be extracted from these images. A so-called segmentation of images is known, for example, for recognizing objects. Different segments are recognized in the image and examined for their meaning. For this reason, semantic segmentation is often mentioned. Different image areas are thus captured and semantically analyzed.
Semantische Segmentierung kann beispielsweise mittels maschinellen Sehens erfolgen. Bei maschinellen Sehen werden üblicherweise klassische Werkzeuge der Bildbearbeitung herangezogen. Beispiele hierfür sind das Auswerten eines optischen Flusses (optical flow), das Erfassen von Gradienten oder sogenannte Hough-Transformation. Als vorteilhaft hat sich davon abweichend eine semantische Segmentierung mittels künstlicher neuronaler Netze erwiesen. Dabei wird ein künstliches neuronales Netz darauf angelernt, in einem Bild unterschiedliche Bereiche zu erfassen und semantisch zu analysieren. Im Rahmen eines Anlernvorgangs lernt das künstliche neuronale Netz hierbei selbstständig, welche Bildmerkmale hierfür von Interesse sind und welche Werkzeuge der Bildbearbeitung für die semantische Segmentierung zu nutzen sind. Ein solcher Anlernvorgang kann beispielsweise mittels bereits segmentierter Beispielbilder durchgeführt werden.Semantic segmentation can be done using machine vision, for example. Classic machine vision tools are usually used for machine vision. Examples of this are the evaluation of an optical flow, the detection of gradients or the so-called Hough transformation. Deviating from this, semantic segmentation using artificial neural networks has proven to be advantageous. An artificial neural network is learned to capture different areas in an image and to analyze them semantically. As part of a learning process, the artificial neural network independently learns which image features are of interest and which tools of image processing are to be used for semantic segmentation. Such a learning process can be carried out, for example, using already segmented example images.
Außerdem bekannt ist eine sogenannte Tiefenschätzung anhand oben genannter Bilder durchzuführen. Im Rahmen einer solchen Tiefenschätzung wird, insbesondere durch ein künstliches neuronales Netz, anhand zweidimensionaler Bildmerkmale des Bildes auf dreidimensionale Größenverhältnisse in dem Bild geschlossen. Eine solche Tiefenschätzung kann beispielsweise zum Erkennen von Bordsteinen oder zur Schätzung der Entfernung von Fremdobjekten, insbesondere Fremdfahrzeugen, genutzt werden.It is also known to carry out a so-called depth estimate using the images mentioned above. In the context of such a depth estimation, in particular by means of an artificial neural network, three-dimensional size relationships in the image are inferred on the basis of two-dimensional image features of the image. Such a depth estimate can be used, for example, to recognize curbs or to estimate the distance from foreign objects, in particular third-party vehicles.
Es ist Aufgabe der vorliegenden Erfindung, eine verbesserte Erfassung einer Umgebung anhand von Kamerabildern zu ermöglichen.The object of the present invention is to enable an improved detection of an environment on the basis of camera images.
Diese Aufgabe wird erfindungsgemäß gelöst durch die Gegenstände der unabhängigen Patentansprüche. Vorteilhafte Ausführungsformen mit zweckmäßigen Weiterbildungen sind Gegenstand der Unteransprüche.This object is achieved according to the invention by the subject matter of the independent claims. Advantageous embodiments with appropriate further developments are the subject of the dependent claims.
Ein erster Aspekt der Erfindung betrifft ein Verfahren zum Beurteilen einer Umgebung eines Kraftfahrzeugs anhand eines Bildes eines Kamerasystems des Kraftfahrzeugs. Das Verfahren weist die folgenden Schritte auf:
- - Bereitstellen des Bildes der Umgebung von einer Kamera des Kraftfahrzeugs,
- - Reduzieren einer Auflösung des Bildes von einer Eingangsauflösung auf eine verringerte Zwischenauflösung durch einen Eingangsteil eines künstlichen neuronalen Netzes und Bereitstellen eines entsprechenden jeweiligen Zwischenbildsignals mit der Zwischenauflösung,
- - Reduzieren einer Auflösung des Bildes von der Zwischenauflösung auf eine nochmals verringerte Arbeitsauflösung durch den Eingangsteil des künstlichen neuronalen Netzes und Bereitstellen eines entsprechenden Arbeitsbildsignals mit der Arbeitsauflösung,
- - Zusammenfassen des Zwischenbildsignals und des Arbeitsbildsignals zu einem gemeinsamen Auswertesignal durch eine Aggregationseinheit des künstlichen neuronalen Netzes, und
- - Beurteilen der Umgebung durch Auswerten des gemeinsamen Auswertesignals durch einen Auswerteeinheit des künstlichen neuronalen Netzes.
- Providing the image of the surroundings from a camera of the motor vehicle,
- Reducing a resolution of the image from an input resolution to a reduced intermediate resolution by means of an input part of an artificial neural network and providing a corresponding intermediate image signal with the intermediate resolution,
- Reducing a resolution of the image from the intermediate resolution to a further reduced working resolution by the input part of the artificial neural network and providing a corresponding working image signal with the working resolution,
- - Combining the intermediate image signal and the working image signal into a common evaluation signal by an aggregation unit of the artificial neural network, and
- - Assessment of the environment by evaluating the common evaluation signal by an evaluation unit of the artificial neural network.
Beispielsweise erfolgt das Bereitstellen der Bilder durch die Kamera des Kraftfahrzeugs. Die Kamera kann in bestimmungsgemäßer Position an dem Kraftfahrzeug angeordnet sein beziehungsweise anordenbar sein. Beispielsweise handelt es sich bei der Kamera um eine Frontkamera, eine Heckkamera oder eine seitwärts gerichtete Kamera des Kraftfahrzeugs. Alternativ oder zusätzlich kann das Bereitstellen der Bilder mittels einer Schnittstelle des Kamerasystems und/oder einer Schnittstelle einer Steuereinheit des Kraftfahrzeugs durchgeführt werden. Beispielsweise weist die Steuereinheit die Schnittstelle auf, um das Bild der Umgebung für weitere Verfahrensschritte bereitzustellen. Das Bild kann ein Einzelbild (Frame) eines Videosignals aus der Kamera sein. Dementsprechend kann das vorliegende Verfahren nacheinander für mehrere Einzelbilder (Frames) des Videosignals durchgeführt werden.For example, the images are provided by the camera of the motor vehicle. The camera can be arranged in the intended position on the motor vehicle or can be arranged. For example, it is the camera around a front camera, a rear camera or a sideways camera of the motor vehicle. Alternatively or additionally, the images can be provided by means of an interface of the camera system and / or an interface of a control unit of the motor vehicle. For example, the control unit has the interface in order to provide the image of the environment for further method steps. The image can be a frame of a video signal from the camera. Accordingly, the present method can be carried out successively for a plurality of frames of the video signal.
Anschließend wird das Bild durch den Eingangsteil des künstlichen neuronalen Netzes bearbeitet. Hierbei wird das Bild in einem mehrstufigen Prozess in seiner Auflösung reduziert. Insbesondere wird die Auflösung des Bildes zunächst von einer Eingangsauflösung auf die Zwischenauflösung reduziert. Anschließend kann die Auflösung des Bildes von der Zwischenauflösung auf eine Arbeitsauflösung reduziert werden. Es können mehrere Zwischenschritte, insbesondere mit einer jeweiligen Zwischenauflösung, bei der mehrstufigen Reduzierung der Auflösung vorgesehen sein. Mit anderen Worten können mehrere Zwischenauflösungen vorgesehen sein, wobei das Bild von der Eingangsauflösung in mehreren Schritten auf mehrere jeweils kleiner werdende Zwischenauflösungen reduziert wird. Beispielsweise sind drei unterschiedliche Zwischenauflösungen vorgesehen. Dann kann das Bild nacheinander durch vier Reduzierungsstufen in seiner Auflösung reduziert werden. In diesem Beispiel wird das Bild insbesondere zunächst von der Eingangsauflösung auf eine erste der Zwischenauflösungen reduziert, anschließend von der ersten Zwischenauflösung auf eine zweite der Zwischenauflösungen weiter reduziert, anschließend von der zweiten Zwischenauflösung auf eine dritte der Zwischenauflösungen noch weiter reduziert und zuletzt von der dritten Zwischenauflösungen auf die Arbeitsauflösung reduziert.The image is then processed through the input part of the artificial neural network. The image is reduced in its resolution in a multi-stage process. In particular, the resolution of the image is initially reduced from an input resolution to the intermediate resolution. The resolution of the image can then be reduced from the intermediate resolution to a working resolution. Several intermediate steps, in particular with a respective intermediate resolution, can be provided in the multi-stage reduction of the resolution. In other words, a number of intermediate resolutions can be provided, the image being reduced in several steps from the input resolution to a number of intermediate resolutions which are in each case becoming smaller. For example, three different intermediate resolutions are provided. Then the image can be successively reduced in its resolution by four reduction stages. In this example, the image is first of all reduced from the input resolution to a first of the intermediate resolutions, then further reduced from the first intermediate resolution to a second of the intermediate resolutions, then further reduced from the second intermediate resolution to a third of the intermediate resolutions and finally from the third intermediate resolution reduced to work resolution.
Beispielsweise erfolgt bei dem Reduzieren der Auflösung gleichzeitig ein Extrahieren von Bildmerkmalen in dem Bild. Solche Bildmerkmale können beispielsweise Objekte in der Umgebung betreffen. Der Eingangsteil des künstlichen neuronales Netzes kann bei einem Anlernvorgang darauf angelernt werden, im Wesentlichen solche Bildmerkmale zu extrahieren, welche für die zugrunde liegende Aufgabe, also vorliegend das Beurteilen der Umgebung, von Relevanz sind. Dies erfolgt bei dem Anlernvorgang ganz automatisch anhand hierfür gewählter Trainingsdaten. Die Trainingsdaten können beispielsweise eine Vielzahl an Bildern unterschiedlicher Objekte, welche im Normalbetrieb des künstlichen neuronalen Netzes dann erkannt werden sollen, umfassen.For example, when the resolution is reduced, image features in the image are extracted simultaneously. Such image features can relate to objects in the area, for example. The input part of the artificial neural network can be taught during a learning process to extract essentially those image features which are relevant for the underlying task, that is to say the assessment of the environment in the present case. This takes place automatically during the learning process based on the training data selected for this. The training data can include, for example, a large number of images of different objects which are then to be recognized during normal operation of the artificial neural network.
Das Arbeitsbildsignal kann das Bild der Umgebung in der Arbeitsauflösung umfassen. Das Arbeitsbildsignal beziehungsweise die Arbeitsauflösung wird so genannt, weil das Bild in der Arbeitsauflösung zur weiteren Verarbeitung bereitgestellt wird. Insbesondere wird das Bild durch den Eingangsteil in der Arbeitsauflösung für die Auswerteeinheit bereitgestellt beziehungsweise an die Auswerteeinheit übermittelt. Die Auswerteeinheit kann zur Auswertung des Bildes das Arbeitsbildsignal als Eingangssignal nutzen. In weiteren Verarbeitungsschritten kann die Auflösung des Bildes durch die Auswerteeinheit verändert werden. Die Arbeitsauflösung beziehungsweise des Arbeitsbildsignal stellt somit im Allgemeinen nur eine Basis für die dem Reduzieren der Auflösung nachfolgende Auswertung durch die Auswerteeinheit dar.The working image signal can include the image of the surroundings in the working resolution. The working picture signal or the working resolution is so called because the picture is made available in the working resolution for further processing. In particular, the image is provided by the input part in the working resolution for the evaluation unit or transmitted to the evaluation unit. The evaluation unit can use the working image signal as an input signal to evaluate the image. In further processing steps, the resolution of the image can be changed by the evaluation unit. The working resolution or the working image signal thus generally represents only a basis for the evaluation following the reduction of the resolution by the evaluation unit.
Bei dem Eingangsteil des künstlichen neuronalen Netzes handelt es sich vorzugsweise um einen sogenannten CNN-Encoder. Durch den Eingangsteil kann im Wesentlichen ein Falten des Bildes erfolgen. Dabei wird eine Matrix, die das jeweilige Bild definiert oder aus diesem abgeleitet ist, in mehrere kleinere Matrizen aufgeteilt. Dies erfolgt insbesondere in mehreren nacheinander folgenden Schritten. Die Matrix kann beispielsweise Höhe mal Breite mal Farbe einzelner (insbesondere aller) Pixel des Bildes angeben. Mit anderen Worten kann die Matrix als digitales Bild beziehungsweise digitale Repräsentation des Bildes aufgefasst werden. Das Falten kann beispielsweise durch sogenannte faltende Lagen („convolutional layer“) durchgeführt werden. Hierbei kann die Matrix mittels sogenannter Filter analysiert werden. Durch einen solchen Filter kann aus der Ursprungsmatrix eine oder mehrere Ergebnismatrix/Ergebnismatrizen gebildet werden, deren Werte sich aus einem Teilbereich der Ursprungsmatrix und abhängig von einer Größe (Kernel-Größe), einem Randverhalten (Padding) und einer Schrittweite des Filters. Alternativ oder zusätzlich kann der Eingangsteil des künstlichen neuronalen Netzes eine oder mehrere Aggregationslagen („pooling layer“) umfassen. Eine solche Aggregationslage kann die Werte mehrerer Matrixelemente zusammenfassen. Beispielsweise wird beim Zusammenfassen ein Durchschnittswert über die mehreren Matrixelemente gebildet („average pooling“) oder es wird ausschließlich der Maximalwert der mehreren Matrixelemente herangezogen („max pooling“). Insgesamt wird durch den Eingangsteil die Auflösung des Bildes beziehungsweise einer entsprechenden Matrix reduziert. Dies kann beispielhaft durch die vorstehend genannten Mechanismen oder durch andere Mechanismen erfolgen. Aufgrund des Lernvorgangs ist das künstliche neuronale Netz dazu in der Lage das Reduzieren der Auflösung auf eine Weise durchzuführen, dass für die zugrunde liegende Aufgabe, also vorliegend das Erfassen der Umgebung beziehungsweise das Erfassen von Objekten, relevante Bildmerkmale extrahiert werden. Die Bildmerkmale können durch den Eingangsteil des künstlichen neuronalen Netzes in Form einer Vielzahl an Matrizen an einen anschließenden Teil des künstlichen neuronalen Netzes weitergegeben werden.The input part of the artificial neural network is preferably a so-called CNN encoder. The input part can essentially fold the image. A matrix that defines or derives the respective image is divided into several smaller matrices. This is done in particular in several successive steps. The matrix can, for example, indicate height by width by color of individual (in particular all) pixels of the image. In other words, the matrix can be understood as a digital image or digital representation of the image. Folding can, for example, be carried out using so-called convolutional layers. The matrix can be analyzed using so-called filters. With such a filter, one or more result matrix / result matrices can be formed from the original matrix, the values of which result from a partial area of the original matrix and depending on a size (kernel size), an edge behavior (padding) and a step size of the filter. Alternatively or additionally, the input part of the artificial neural network can comprise one or more aggregation layers (“pooling layer”). Such an aggregation position can summarize the values of several matrix elements. For example, when summarizing, an average value is formed across the several matrix elements ("average pooling") or only the maximum value of the several matrix elements is used ("max pooling"). Overall, the resolution of the image or a corresponding matrix is reduced by the input part. This can be done, for example, by the mechanisms mentioned above or by other mechanisms. Due to the learning process, the artificial neural network is able to reduce the resolution in such a way that relevant image features are extracted for the underlying task, that is to say the detection of the surroundings or the detection of objects. The image features can be passed through the input part of the artificial neural network in the form of a large number of matrices to a subsequent part of the artificial neural network.
Bei dem Zwischenbildsignal kann es sich um das Bild in der Zwischenauflösung handeln. Im Falle mehrerer Zwischenbildsignale kann jedes der Zwischenbildsignale in der entsprechenden Zwischenauflösung vorliegen. Das Zwischenbildsignal beziehungsweise die Zwischenbildsignale kann/können jeweils eine sogenannte Merkmalskarte (auch mit dem englischen Fachbegriff „feature map“ bezeichnet) umfassen. In einer solchen Merkmalskarte werden die Bildmerkmale, die bei dem Reduzieren der Auflösung in dem jeweiligen Zwischenschritt extrahiert werden, zusammengefasst sein. Eine solche Merkmalskarte kann auch als Teil des Arbeitsbildsignals bereitgestellt werden.The intermediate image signal can be the image in the intermediate resolution. In the case of several intermediate image signals, each of the intermediate image signals can be present in the corresponding intermediate resolution. The intermediate image signal or the intermediate image signals can each comprise a so-called feature map (also referred to with the English technical term “feature map”). In such a feature map, the image features that are extracted when the resolution is reduced in the respective intermediate step will be summarized. Such a feature map can also be provided as part of the working image signal.
Bei der Auswerteeinheit kann es sich um einen sogenannten CNN-Decoder handeln. Alternativ kann die Auswerteeinheit mehrere CNN-Decoder umfassen. Durch die Auswerteeinheit kann zusätzlich ein Erhöhen der Auflösung durchgeführt werden. Beispielsweise wird durch die Auswerteeinheit nach dem Beurteilen der Umgebung beziehungsweise nach dem Auswerten der Bildmerkmale die Auflösung des Bildes wieder erhöht, beispielsweise auf die Eingangsauflösung. Dieses Erhöhen der Auflösung kann mittels Interpolation, insbesondere bilineare Interpolation, erfolgen. Die Auswerteeinheit kann dazu eingerichtet sein, die Umgebung anhand der Bildmerkmale beziehungsweise anhand der Merkmalskarten von Zwischenbildsignal(en) und Arbeitsbildsignal zu beurteilen. Insbesondere wertet die Auswerteeinheit die Bildmerkmale beziehungsweise die Merkmalskarten dementsprechend aus. Dieses Auswerten kann durch den Anlernvorgang des künstlichen neuronalen Netzes angelernt werden. Mit anderen Worten kann die Auswerteeinheit im Rahmen des Anlernvorgangs lernen, die Bildmerkmale beziehungsweise die Merkmalskarten auszuwerten. Im Rahmen des Anlernvorgangs kann die Auswerteeinheit beispielsweise Verknüpfungen zwischen bestimmten Bildmerkmalen und bestimmten Umgebungsbedingungen als Vorwissen erkennen. Anhand dieses Vorwissen können dann später ähnliche Umgebungsbedingungen erkannt werden.The evaluation unit can be a so-called CNN decoder. Alternatively, the evaluation unit can comprise several CNN decoders. The evaluation unit can also be used to increase the resolution. For example, after evaluating the environment or after evaluating the image features, the evaluation unit increases the resolution of the image again, for example to the input resolution. This increase in resolution can take place by means of interpolation, in particular bilinear interpolation. The evaluation unit can be set up to assess the surroundings on the basis of the image features or on the feature maps of the intermediate image signal (s) and the working image signal. In particular, the evaluation unit evaluates the image features or the feature cards accordingly. This evaluation can be learned through the learning process of the artificial neural network. In other words, the evaluation unit can learn to evaluate the image features or the feature cards as part of the teaching process. As part of the teaching process, the evaluation unit can recognize, for example, links between certain image features and certain environmental conditions as prior knowledge. Based on this prior knowledge, similar environmental conditions can then be recognized later.
Ein erfindungswesentlicher Gedanke ist, dass das Zwischenbildsignal beziehungsweise mehrere Zwischenbildsignale, welche bei dem mehrstufigen Reduzierung der Auflösung des Bildes im Eingangsteil des künstlichen neuronalen Netzes gebildet werden, für die weitere Verarbeitung im künstlichen neuronalen Netz ausgekoppelt beziehungsweise herangezogen werden. Hierfür ist jedoch notwendig, das Zwischenbildsignal mit dem Arbeitsbildsignal zu verknüpfen. Dies erfolgt vorliegend mittels der Aggregationseinheit. Diese kann auch als Aggregationsmodul bezeichnet werden. Durch die Aggregationseinheit wird das Arbeitsbildsignal mit einem beziehungsweise mehreren Zwischenbildsignalen verknüpft. Dabei weisen das Arbeitsbildsignal und das eine oder die mehreren Zwischenbildsignale jeweils eine unterschiedliche Auflösung auf. Beispielsweise werden in jeder der Reduzierungsstufen zumindest teilweise unterschiedliche Bildmerkmale aus dem Bild extrahiert. Durch die Aggregationseinheit können die Bildmerkmale, die in den unterschiedlichen Reduzierungsstufen extrahiert werden, als Teil des Auswertesignals zusammengefasst werden. Durch die unterschiedlichen Verarbeitungsstufen der Arbeitsbildsignal und des einen oder der mehreren Zwischenbildsignale kann hierdurch eine verbesserte Erfassung der Umgebung ermöglicht werden. Insbesondere entsprechen Bildmerkmale, die nach mehrfacher Reduzierung der Auflösung extrahiert werden, im Allgemeinen eher lokale Bildmerkmalen. Demgegenüber entsprechen Bildmerkmale, die nach der ersten oder zweiten Reduzierung der Auflösung extrahiert werden, im Allgemeinen eher globalen Bildmerkmalen. Mit anderen Worten werden bei dem mehrstufigen Reduzieren der Auflösung zunehmend lokalere Bildmerkmale extrahiert. Durch das Prinzip der Verknüpfung der Bildmerkmale unterschiedlicher Auflösungen können lokale und globale Bildmerkmale besonders vorteilhaft verbunden werden. Das Prinzip einer Aggregationseinheit ist dem Fachmann aus dem Artikel „Pyramid Scene Parsing Network“ von Hengshuang Zhao et al. (https://hszhao.github.io/projects/pspnet/) bekannt. In dieser Druckschrift werden Verbesserungen in der Genauigkeit erzielt, obwohl die Eingänge zur Aggregationseinheit alle derselben Verarbeitungsstufe entnommen sind.An idea essential to the invention is that the intermediate image signal or a plurality of intermediate image signals, which are formed in the multi-stage reduction of the resolution of the image in the input part of the artificial neural network, are decoupled or used for further processing in the artificial neural network. For this, however, it is necessary to link the intermediate image signal with the working image signal. In the present case, this is done by means of the aggregation unit. This can also be called an aggregation module. The working image signal is linked by the aggregation unit to one or more intermediate image signals. The working image signal and the one or more intermediate image signals each have a different resolution. For example, in each of the reduction stages, at least partially different image features are extracted from the image. With the aggregation unit, the image features that are extracted in the different reduction levels can be summarized as part of the evaluation signal. The different processing stages of the working image signal and the one or more intermediate image signals can thereby enable an improved detection of the surroundings. In particular, image features that are extracted after the resolution has been reduced several times generally correspond to local image features. In contrast, image features that are extracted after the first or second reduction in resolution generally correspond to more global image features. In other words, as the resolution is reduced in several stages, increasingly more local image features are extracted. The principle of linking the image features of different resolutions enables local and global image features to be connected particularly advantageously. The principle of an aggregation unit is known to the person skilled in the art “Pyramid Scene Parsing Network” by Hengshuang Zhao et al. (https://hszhao.github.io/projects/pspnet/) known. Improvements in accuracy are achieved in this document, although the inputs to the aggregation unit are all taken from the same processing stage.
Beispielsweise erfolgt das Beurteilen der Umgebung mittels semantischer Segmentierung des Bildes. Es ist insbesondere vorgesehen, dass bei dem Beurteilen der Umgebung eine semantische Segmentierung des Bildes erfolgt. Mit anderen Worten kann das künstliche neuronale Netz dazu angelernt sein, das Bild semantisch zu segmentieren. Im Rahmen einer solchen semantischen Segmentierung werden unterschiedliche Bildbereiche, in welchen beispielsweise unterschiedliche Objekte und/oder Hintergrundbereiche in der Umgebung erfasst sind, entsprechend ihrem jeweiligen Bedeutungsgehalt segmentiert. For example, the environment is assessed using semantic segmentation of the image. In particular, it is provided that a semantic segmentation of the image takes place when the environment is assessed. In other words, the artificial neural network can be trained to semantically segment the image. In the context of such a semantic segmentation, different image areas, in which, for example, different objects and / or background areas in the environment are recorded, are segmented according to their respective meaning.
Der Bedeutungsgehalt kann dabei in Bezug auf eine Fahrerassistenzfunktion eines Fahrerassistenzsystems des Kraftfahrzeugs bestimmt werden. Beispielsweise kann eine Segmentierung in befahrbare und nicht befahrbare Umgebungsbereiche erfolgen. Die semantische Segmentierung kann im Wesentlichen durch die Auswerteeinheit des künstlichen neuronalen Netzes erfolgen. Demgegenüber können durch den Eingangsteil hierfür notwendige Bildmerkmale aus dem Bild extrahiert werden. Durch die Aggregationseinheit können Bildmerkmale, die unterschiedlichen Verarbeitungsstufen entspringen, als Teil des Auswertesignals zusammengefasst werden. Insgesamt kann dadurch, insbesondere dank des erfindungsgemäß zusammengefassten Auswertesignals, eine semantische Segmentierung mit gegenüber dem Stand der Technik verbesserter Genauigkeit durchgeführt werden.The meaning content can be determined in relation to a driver assistance function of a driver assistance system of the motor vehicle. For example, segmentation into passable and non-passable surrounding areas can take place. The semantic segmentation can essentially be carried out by the evaluation unit of the artificial neural network. In contrast, necessary for this by the input part Image features are extracted from the image. The aggregation unit allows image features that originate from different processing levels to be combined as part of the evaluation signal. Overall, thanks to the evaluation signal summarized according to the invention, a semantic segmentation can thus be carried out with improved accuracy compared to the prior art.
Alternativ oder zusätzlich ist vorgesehen, dass das Beurteilen der Umgebung mittels einer Tiefenschätzung erfolgt. Insbesondere ist vorgesehen, dass bei dem Beurteilen der Umgebung eine Tiefenschätzung für die in dem Bild dargestellte Umgebung erfolgt. Mit anderen Worten wird anhand des zweidimensionalen Bildes beziehungsweise anhand zweidimensionaler Bildmerkmale des Bildes auf eine Tiefe von Bildbereichen extrapoliert. Insgesamt kann dadurch, insbesondere dank des erfindungsgemäß zusammengefassten Auswertesignals, eine Tiefenschätzung mit gegenüber dem Stand der Technik verbesserter Genauigkeit durchgeführt werden.As an alternative or in addition, it is provided that the environment is assessed by means of a depth estimate. In particular, it is provided that when assessing the surroundings, a depth estimate is made for the surroundings shown in the picture. In other words, the two-dimensional image or two-dimensional image features of the image are used to extrapolate to a depth of image areas. Overall, thanks to the evaluation signal summarized according to the invention, a depth estimate can be carried out with improved accuracy compared to the prior art.
Gemäß einer Weiterbildung ist vorgesehen, dass die Auswerteeinheit mehrere unabhängige Auswertemodule umfasst, wobei durch die Auswertemodule bei dem Beurteilen der Umgebung mehrere voneinander unabhängige Teilauswertungen vorgenommen werden. Die Auswertemodule können jeweils genau einen CNN-Decoder aufweisen. Die CNN-Decoder der Auswertemodule können voneinander unabhängig sein. Beispielsweise können die semantische Segmentierung sowie die Tiefenschätzung jeweils unabhängige Teilauswertungen sein. Die jeweils unabhängigen Teilauswertungen können basierend auf denselben Bildmerkmalen beziehungsweise basierend auf demselben Auswertesignals durchgeführt werden. Auf diese Weise ergeben sich Synergie-Effekte zwischen den einzelnen Teilauswertungen, da diese zumindest teilweise dieselben Bildmerkmale nutzen. Zudem kann eine Genauigkeit gesteigert werden, da Bildmerkmale die vorrangig für eine erste der Teilauswertungen von Bedeutung sind auch die Genauigkeit einer zweiten der Teilauswertungen steigern können.According to a development, it is provided that the evaluation unit comprises a plurality of independent evaluation modules, the evaluation modules carrying out several independent partial evaluations when assessing the environment. The evaluation modules can each have exactly one CNN decoder. The CNN decoders of the evaluation modules can be independent of one another. For example, the semantic segmentation and the depth estimate can each be independent partial evaluations. The respective independent partial evaluations can be carried out based on the same image features or based on the same evaluation signal. In this way, there are synergy effects between the individual partial evaluations, since these at least partially use the same image features. In addition, an accuracy can be increased, since image features that are primarily important for a first of the partial evaluations can also increase the accuracy of a second of the partial evaluations.
Gemäß einer Weiterbildung ist vorgesehen, dass das Zusammenfassen beziehungsweise Aggregieren des Bildes für jedes der Auswertemodule separat durch eine jeweilige der entsprechenden Auswerteeinheit zugeordnete Aggregationseinheit erfolgt. Mit anderen Worten ist jedem der mehreren Auswertemodule eine jeweilige Aggregationseinheit zugeordnet. Die jeweilige Teilauswertung durch die Auswertemodule erfolgt insbesondere nur anhand des Auswertesignals genau derjenigen Aggregationseinheit, welche dem entsprechenden Auswertemodule zugeordnet ist. Auf diese Weise können den unterschiedlichen Auswertemodule unterschiedliche Aggregationseinheiten zugeordnet werden.According to a further development, it is provided that the summarization or aggregation of the image for each of the evaluation modules is carried out separately by a respective aggregation unit assigned to the corresponding evaluation unit. In other words, each of the plurality of evaluation modules is assigned a respective aggregation unit. The respective partial evaluation by the evaluation modules is carried out, in particular, only on the basis of the evaluation signal of exactly that aggregation unit which is assigned to the corresponding evaluation module. In this way, different aggregation units can be assigned to the different evaluation modules.
Insbesondere ist vorgesehen, dass eine Arbeitsweise der jeweiligen Aggregationseinheiten an die Teilauswertungen des jeweils nachfolgenden Auswertemoduls angepasst ist. Mit anderen Worten ist die Arbeitsweise der mehreren Aggregationseinheiten jeweils an dasjenige Auswertemodule angepasst, dem die entsprechende Aggregationseinheit zugeordnet ist. Diese jeweilige Arbeitsweise der Abwertungsmodule kann durch unterschiedliche Architektur der Aggregationseinheiten gegeben sein. Alternativ oder zusätzlich kann die jeweilige Arbeitsweise der Aggregationseinheiten durch den Anlernvorgang vorgegeben werden. Mit anderen Worten kann im Rahmen eines Anlernvorgangs für jedes der Aggregationseinheiten eine jeweilige, individuelle Arbeitsweise bestimmt werden. Dabei werden die Aggregationseinheiten insbesondere auf die jeweilige Teilauswertung des jeweiligen Auswertemoduls, dem die entsprechende Aggregationseinheit zugeordnet ist, angelernt. Dadurch kann das Zusammenfassen des Zwischenbildsignal und des Arbeitsbildsignals beziehungsweise das daraus resultierende Auswertesignals besonders gut an die jeweilige Teilauswertung des nachfolgenden Auswertemoduls angepasst werden.In particular, it is provided that a mode of operation of the respective aggregation units is adapted to the partial evaluations of the respective subsequent evaluation module. In other words, the mode of operation of the plurality of aggregation units is in each case adapted to the evaluation module to which the corresponding aggregation unit is assigned. This particular way of working of the devaluation modules can be given by different architecture of the aggregation units. As an alternative or in addition, the respective mode of operation of the aggregation units can be predetermined by the learning process. In other words, a respective, individual mode of operation can be determined for each of the aggregation units as part of a learning process. The aggregation units are taught in particular for the respective partial evaluation of the respective evaluation module to which the corresponding aggregation unit is assigned. As a result, the combination of the intermediate image signal and the working image signal or the evaluation signal resulting therefrom can be adapted particularly well to the respective partial evaluation of the subsequent evaluation module.
Gemäß einer Weiterbildung ist vorgesehen, dass für das Zusammenfassen des Zwischenbildsignals und des Arbeitsbildsignals ein Reduzieren der Auflösung des Zwischenbildsignals durch die Aggregationseinheit erfolgt, wobei sich das ein jeweiliges Prinzip für das Reduzieren der Auflösung zwischen Eingangsteil und der Aggregationseinheit unterscheidet. Mit anderen Worten erfolgt in der Aggregationseinheit ein weiteres Reduzieren der Auflösung des Zwischenbildsignals beziehungsweise der Zwischenbildsignale. Dies ist insbesondere dann nötig, wenn das Verknüpfen beziehungsweise Aggregieren des Arbeitsbildsignals dem Zwischenbildsignal auf besonders einfache Art und Weise erfolgen soll. Insbesondere ist vorgesehen, dass das Verknüpfen durch Konkatenation der einzelnen Signale, also des Arbeitsbildsignals und des Zwischenbildsignals, erfolgt. Insbesondere kann es nötig sein, dass das Arbeitsbildsignal und das Zwischenbildsignal beziehungsweise die Zwischenbildsignale für das Verknüpfen, aggregieren oder die Konkatenation jeweils dieselbe Auflösung aufweisen.According to a further development, the aggregation unit reduces the resolution of the intermediate image signal by combining the intermediate image signal and the working image signal, the respective principle for reducing the resolution differing between the input part and the aggregation unit. In other words, the resolution of the intermediate image signal or the intermediate image signals is further reduced in the aggregation unit. This is particularly necessary if the linkage or aggregation of the working image signal to the intermediate image signal is to take place in a particularly simple manner. In particular, it is provided that the linking takes place by concatenation of the individual signals, that is to say the working image signal and the intermediate image signal. In particular, it may be necessary that the working image signal and the intermediate image signal or the intermediate image signals for linking, aggregate or the concatenation each have the same resolution.
Dabei wird das Reduzieren der Auflösung in der Aggregationseinheit insbesondere auf andere Art und Weise durchgeführt, als im Eingangsteil. Beispielsweise kann bei dem Reduzieren der Auflösung durch die Aggregationseinheit verglichen mit dem Eingangsteil eine größere Kernel-Größe („kernel size“) und/oder eine größere Schrittweite („stride“) angewendet wird. Mit anderen Worten kann ein Maß, um welches die Auflösung bei einem Reduzierungsschritt verringert wird, in der Aggregationseinheit verglichen mit dem Eingangsteil größer sein. Umso größer die Kernel-Größe und/oder umso größer die Schrittweite desto größer kann die Reduzierung der Auflösung in einem Reduzierungsschritt sein. Insgesamt können dadurch unterschiedliche Bildinformationen aus dem Bild extrahiert werden.The reduction of the resolution in the aggregation unit is carried out in a different way than in the input part. For example, when the resolution is reduced by the aggregation unit compared to the input part, a larger kernel size ("kernel size") and / or a larger step size ("stride") can be used. In other words, a Dimension by which the resolution is reduced in a reduction step may be larger in the aggregation unit compared to the input part. The larger the kernel size and / or the larger the step size, the greater the reduction in resolution can be in a reduction step. Overall, different image information can be extracted from the image.
Alternativ oder zusätzlich kann beim Reduzieren der Auflösung durch den Eingangsteil und durch die Aggregationseinheit ein jeweils unterschiedliches Verfahren zum Zusammenfassen einzelner Pixel („pooling“) im Rahmen des Reduzierens der Auflösung vorgesehen sein. Beispielsweise wird beim Zusammenfassen durch die Aggregationseinheit ein Durchschnittswert über die mehreren Matrixelemente gebildet („average pooling“) und beim Zusammenfassen durch den Eingangsteil ausschließlich der Maximalwert der mehreren Matrixelemente herangezogen („max pooling“).Alternatively or additionally, when the resolution is reduced by the input part and by the aggregation unit, a different method for combining individual pixels (“pooling”) can be provided in the context of reducing the resolution. For example, when summarizing by the aggregation unit, an average value over the several matrix elements is formed ("average pooling") and when summarizing through the input part, only the maximum value of the several matrix elements is used ("max pooling").
Gemäß einer Weiterbildung ist vorgesehen, dass die Auflösung des Zwischenbildsignals durch die Aggregationseinheit auf eine geringere Auflösung als die Arbeitsauflösung reduziert wird und anschließend auf die Arbeitsauflösung erhöht, insbesondere interpoliert, wird. Mit anderen Worten kann die Auflösung des Zwischenbildsignals durch die Aggregationseinheit auf eine Auflösung, die kleiner ist als die Arbeitsauflösung, reduziert werden. In einem weiteren Schritt kann die Auflösung des Zwischenbildsignals durch die Aggregationseinheit auf die Arbeitsauflösung erhöht werden. Beispielsweise erfolgt das solches Erhöhen der Auflösung durch Interpolation, insbesondere bilineare Interpolation. Mit anderen Worten kann die Auflösung des Zwischenbildsignals durch die Aggregationseinheit zunächst verringert und anschließend durch Interpolation wieder erhöht werden. Auf diese Weise können zusätzliche Bildmerkmale aus dem Bild extrahiert werden.According to a further development, it is provided that the resolution of the intermediate image signal is reduced by the aggregation unit to a lower resolution than the working resolution and then increased, in particular interpolated, to the working resolution. In other words, the resolution of the intermediate image signal can be reduced by the aggregation unit to a resolution that is less than the working resolution. In a further step, the resolution of the intermediate image signal can be increased to the working resolution by the aggregation unit. For example, the resolution is increased in this way by interpolation, in particular bilinear interpolation. In other words, the resolution of the intermediate image signal can first be reduced by the aggregation unit and then increased again by interpolation. In this way, additional image features can be extracted from the image.
Manchen Ausführungsformen ist vorgesehen, dass als das künstliche neuronale Netz ein solches mit einer E-Net-Struktur verwendet wird. Mit anderen Worten kann das künstliche neuronale Netz eine E-Net-Struktur aufweisen. Eine solche E-Net-Struktur zeichnet sich insbesondere dadurch aus, dass durch den Eingangsteil, insbesondere CNN-Encoder, im Wesentlichen Bildmerkmale extrahiert werden, jedoch die eigentliche Auswertung der Bildmerkmale erst später durch die Auswerteeinheit, insbesondere den CNN-Decoder, erfolgt. Vorteilhaft hierbei ist das der Eingangsteil universell für unterschiedliche Teilauswertungen unterschiedlicher nachfolgender Auswertemodule genutzt werden kann.Some embodiments provide that the artificial neural network used is one with an E-Net structure. In other words, the artificial neural network can have an E-Net structure. Such an E-Net structure is characterized in particular by the fact that the input part, in particular the CNN encoder, essentially extracts image features, but the actual evaluation of the image features takes place only later by the evaluation unit, in particular the CNN decoder. It is advantageous here that the input part can be used universally for different partial evaluations of different subsequent evaluation modules.
Ein weiterer Aspekt der Erfindung betrifft eine Steuereinheit umfassend ein künstliches neuronales Netzes zum Beurteilen einer Umgebung eines Kraftfahrzeugs anhand von Bildern eines Kamerasystems des Kraftfahrzeugs, mit
- - einer Bereitstellungeinheit ausgebildet zum Bereitstellen eines Bildes der Umgebung von einer Kamera des Kraftfahrzeugs,
- - einem Eingangsteil des künstlichen neuronalen Netzes ausgebildet zum Reduzieren einer Auflösung des Bildes von einer Eingangsauflösung auf eine verringerte Zwischenauflösung und Bereitstellen eines entsprechenden Zwischenbildsignals in der Zwischenauflösung sowie ausgebildet zum Reduzieren einer Auflösung des Bildes von der Zwischenauflösung auf eine nochmals verringerte Arbeitsauflösung und Bereitstellen eines entsprechenden Arbeitsbildsignals in der Arbeitsauflösung,
- - einer Aggregationseinheit des künstlichen neuronalen Netzes ausgebildet zum Zusammenfassen des Zwischenbildsignals und des Arbeitsbildsignals zu einem gemeinsamen Auswertesignal, und
- - einer Auswerteeinheit des künstlichen neuronalen Netzes ausgebildet zum Beurteilen der Umgebung durch Auswerten des gemeinsamen Auswertesignals.
- a provision unit designed to provide an image of the surroundings from a camera of the motor vehicle,
- - An input part of the artificial neural network is designed to reduce a resolution of the image from an input resolution to a reduced intermediate resolution and to provide a corresponding intermediate image signal in the intermediate resolution and is designed to reduce a resolution of the image from the intermediate resolution to a further reduced working resolution and to provide a corresponding working image signal in working resolution,
- an aggregation unit of the artificial neural network designed to combine the intermediate image signal and the working image signal into a common evaluation signal, and
- - An evaluation unit of the artificial neural network designed to assess the environment by evaluating the common evaluation signal.
Bei der Bereitstellung seiner kann es sich beispielsweise um eine Eingangsschnittstelle der Steuereinheit und/oder einen einer solchen Eingangsschnittstelle zugeordneten Puffer der Steuereinheit handeln. Durch die eine Schnittstelle kann das Bild aus der Kamera des Kraftfahrzeugs empfangen und für die weitere Verarbeitung bereitgestellt werden. In dem Puffer kann das Bild zwischengespeichert („gebuffert“) werden. Das künstliche neuronale Netz kann als ganzes Teil der Steuereinheit sein. Die erfindungsgemäße Steuereinheit ist insbesondere dazu ausgebildet, das erfindungsgemäße Verfahren durchzuführen. Dementsprechend gelten Weiterbildungen und Vorteile des erfindungsgemäßen Verfahrens analog auch für die Steuereinheit und umgekehrt.Providing it can be, for example, an input interface of the control unit and / or a buffer of the control unit assigned to such an input interface. The interface can receive the image from the camera of the motor vehicle and make it available for further processing. The image can be buffered ("buffered") in the buffer. The artificial neural network can be part of the control unit. The control unit according to the invention is in particular designed to carry out the method according to the invention. Accordingly, further developments and advantages of the method according to the invention also apply analogously to the control unit and vice versa.
Ein weiterer Aspekt der Erfindung betrifft ein Fahrerassistenzsystem für ein Kraftfahrzeugs mit einer Kamera zum Bereitstellen eines Bildes einer Umgebung des Kraftfahrzeugs und der oben genannten Steuereinheit. Die Kamera kann in bestimmungsgemäßer Position an dem Kraftfahrzeug angeordnet sein beziehungsweise anordenbar sein.Another aspect of the invention relates to a driver assistance system for a motor vehicle with a camera for providing an image of an environment of the motor vehicle and the above-mentioned control unit. The camera can be arranged in the intended position on the motor vehicle or can be arranged.
Außerdem Teil der Erfindung ist ein Kraftfahrzeug, welches das oben genannte Fahrerassistenzsystem umfasst. Bei dem Kraftfahrzeug handelt es sich insbesondere um einen Kraftwagen, beispielsweise einen Lastkraftwagen oder einen Personenkraftwagen. Beispielsweise kann das Kraftfahrzeug einen elektrischen Antrieb und/oder einen Verbrennungsmotor aufweisen. Das Kamerasystem, insbesondere die erste und die zweite Kamera, des Fahrerassistenzsystems sind an dem Kraftfahrzeug angeordnet. Merkmale und Vorteile, die in Bezug auf das Verfahren offenbart sind, gelten auch für das Fahrerassistenzsystem.In addition, part of the invention is a motor vehicle which comprises the above-mentioned driver assistance system. The motor vehicle is in particular a motor vehicle, for example a truck or a passenger car. For example, the motor vehicle have an electric drive and / or an internal combustion engine. The camera system, in particular the first and the second camera, of the driver assistance system are arranged on the motor vehicle. Features and advantages that are disclosed in relation to the method also apply to the driver assistance system.
Außerdem gehört zur Erfindung ein Computerprogrammprodukt mit Programmcodemitteln, welche in einem computerlesbaren Medium gespeichert sind, um das erfindungsgemäße Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Prozessor einer elektronischen Steuereinheit abgearbeitet wird.The invention also includes a computer program product with program code means which are stored in a computer-readable medium in order to carry out the method according to the invention when the computer program product is processed on a processor of an electronic control unit.
Das Computerprogrammprodukt kann auf einem computerlesbaren Medium gespeichert sein. Somit beansprucht diese Erfindung auch ein solches computerlesbares Medium, insbesondere in Form einer computerlesbaren Diskette, CD, DVD, Speicherkarte, USB-Speichereinheit, oder ähnlichen, in dem Programmcodemittel gespeichert sind, um das erfindungsgemäße Verfahren durchzuführen, wenn die Programmcodemittel in einen Speicher einer elektronischen Steuereinheit geladen und auf einem Prozessor der elektronischen Steuereinheit abgearbeitet werden. Bei dem lesbaren Medium kann es sich einen flüchtigen (volatilen) oder einen nicht-flüchtigen Speicher handeln. Ein solcher flüchtiger Speicher kann insbesondere durch einen Arbeitsspeicher eines Mikroprozessors gebildet sein.The computer program product can be stored on a computer-readable medium. Thus, this invention also claims such a computer-readable medium, in particular in the form of a computer-readable floppy disk, CD, DVD, memory card, USB memory unit, or the like, in which program code means are stored in order to carry out the method according to the invention if the program code means are stored in a memory of an electronic Control unit loaded and processed on a processor of the electronic control unit. The readable medium can be volatile (non-volatile) or non-volatile. Such a volatile memory can in particular be formed by a working memory of a microprocessor.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Es sind darüber hinaus Ausführungen und Merkmalskombinationen, insbesondere durch die oben dargelegten Ausführungen, als offenbart anzusehen, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder abweichen.Further features of the invention result from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description and the features and combinations of features mentioned below in the description of the figures and / or shown alone in the figures can be used not only in the combination indicated in each case but also in other combinations without departing from the scope of the invention . Embodiments of the invention are thus also to be regarded as encompassed and disclosed, which are not explicitly shown and explained in the figures, but which emerge from the explanations explained and can be generated by separate combinations of features. Designs and combinations of features are also to be regarded as disclosed, which therefore do not have all the features of an originally formulated independent claim. Furthermore, versions and combinations of features, in particular those explained above, are to be regarded as disclosed, which go beyond or differ from the combinations of features set out in the references of the claims.
Dabei zeigen:
-
1 ein Kraftfahrzeug in einer schematischen Vogelperspektive; -
2 ein Blockschaltbild einer Steuereinheit zum Beurteilen einer Umgebung eines Kraftfahrzeugs; und -
3 ein Blockschaltbild einer Aggregationseinheit der Steuereinheit.
-
1 a motor vehicle in a schematic bird's eye view; -
2nd a block diagram of a control unit for assessing an environment of a motor vehicle; and -
3rd a block diagram of an aggregation unit of the control unit.
Zusammen mit einer Steuereinheit
Die Steuereinheit
Ein Bild der Umgebung wird anschließend durch einen Eingangsteil
Als Teil jedes der Zwischenbildsignale
In der Aggregationseinheit
Im vorliegenden Beispiel weist die Reduzierungsstufe
Anschließend weist die Aggregationseinheit
In einem Konkatenationsmodul
Nun wieder bezugnehmend auf
Im vorliegenden Ausführungsbeispiel sind zwei voneinander unabhängige Auswertemodule
Im Rahmen eines Anlernvorgangs des künstlichen neuronalen Netzes können die beiden Aggregationseinheiten
Insgesamt werden in dem gemeinsamen Eingangsteil
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018130821.3A DE102018130821A1 (en) | 2018-12-04 | 2018-12-04 | Method for assessing an environment of a motor vehicle using an artificial neural network with an aggregation unit; Control unit, driver assistance system and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018130821.3A DE102018130821A1 (en) | 2018-12-04 | 2018-12-04 | Method for assessing an environment of a motor vehicle using an artificial neural network with an aggregation unit; Control unit, driver assistance system and computer program product |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018130821A1 true DE102018130821A1 (en) | 2020-06-04 |
Family
ID=70680761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018130821.3A Pending DE102018130821A1 (en) | 2018-12-04 | 2018-12-04 | Method for assessing an environment of a motor vehicle using an artificial neural network with an aggregation unit; Control unit, driver assistance system and computer program product |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102018130821A1 (en) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113409194A (en) * | 2021-06-30 | 2021-09-17 | 上海汽车集团股份有限公司 | Parking information acquisition method and device and parking method and device |
US11151966B2 (en) * | 2018-12-13 | 2021-10-19 | Toyota Jidosha Kabushiki Kaisha | Display control apparatus, display control method and storage medium for determining whether or not information of an image needs to be reduced based on vehicle information |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11487288B2 (en) | 2017-03-23 | 2022-11-01 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
DE102021119951A1 (en) | 2021-08-02 | 2023-02-02 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Method, system and computer program product for detecting the surroundings of a motor vehicle |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11665108B2 (en) | 2018-10-25 | 2023-05-30 | Tesla, Inc. | QoS manager for system on a chip communications |
US11681649B2 (en) | 2017-07-24 | 2023-06-20 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11734562B2 (en) | 2018-06-20 | 2023-08-22 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11748620B2 (en) | 2019-02-01 | 2023-09-05 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11790664B2 (en) | 2019-02-19 | 2023-10-17 | Tesla, Inc. | Estimating object properties using visual image data |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11841434B2 (en) | 2018-07-20 | 2023-12-12 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11893774B2 (en) | 2018-10-11 | 2024-02-06 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
-
2018
- 2018-12-04 DE DE102018130821.3A patent/DE102018130821A1/en active Pending
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11487288B2 (en) | 2017-03-23 | 2022-11-01 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11681649B2 (en) | 2017-07-24 | 2023-06-20 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11797304B2 (en) | 2018-02-01 | 2023-10-24 | Tesla, Inc. | Instruction set architecture for a vector computational unit |
US11734562B2 (en) | 2018-06-20 | 2023-08-22 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11841434B2 (en) | 2018-07-20 | 2023-12-12 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11983630B2 (en) | 2018-09-03 | 2024-05-14 | Tesla, Inc. | Neural networks for embedded devices |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US11893774B2 (en) | 2018-10-11 | 2024-02-06 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11665108B2 (en) | 2018-10-25 | 2023-05-30 | Tesla, Inc. | QoS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11908171B2 (en) | 2018-12-04 | 2024-02-20 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11151966B2 (en) * | 2018-12-13 | 2021-10-19 | Toyota Jidosha Kabushiki Kaisha | Display control apparatus, display control method and storage medium for determining whether or not information of an image needs to be reduced based on vehicle information |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11748620B2 (en) | 2019-02-01 | 2023-09-05 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US11790664B2 (en) | 2019-02-19 | 2023-10-17 | Tesla, Inc. | Estimating object properties using visual image data |
CN113409194B (en) * | 2021-06-30 | 2024-03-22 | 上海汽车集团股份有限公司 | Parking information acquisition method and device, and parking method and device |
CN113409194A (en) * | 2021-06-30 | 2021-09-17 | 上海汽车集团股份有限公司 | Parking information acquisition method and device and parking method and device |
DE102021119951A1 (en) | 2021-08-02 | 2023-02-02 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Method, system and computer program product for detecting the surroundings of a motor vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018130821A1 (en) | Method for assessing an environment of a motor vehicle using an artificial neural network with an aggregation unit; Control unit, driver assistance system and computer program product | |
EP3292510B1 (en) | Method and apparatus for detecting and assessing road reflections | |
EP3291172B1 (en) | Method for calculating final image data | |
DE102017208718A1 (en) | Method of detecting objects in an image of a camera | |
DE102018217090A1 (en) | Process, artificial neural network, device, computer program and machine-readable storage medium for the semantic segmentation of image data | |
DE102019101482A1 (en) | DETECTION DEVICE FOR THE EXTERNAL ENVIRONMENT OF A VEHICLE | |
DE102018217091A1 (en) | Process, artificial neural network, device, computer program and machine-readable storage medium for the semantic segmentation of image data | |
EP4078941A2 (en) | Converting input image data from a plurality of vehicle cameras of a surround-view system into optimised output image data | |
DE112015000763T5 (en) | Vehicle environment image display device and vehicle environment image display method | |
DE102018132627A1 (en) | Method for capturing an environment of a motor vehicle by means of temporal fusion of images through an artificial neural network; Control unit, driver assistance system; Computer program product | |
DE102017208994A1 (en) | Method for determining result image data | |
DE102019220335A1 (en) | SEMANTIC SEGMENTATION USING DRIVER ATTENTION INFORMATION | |
DE102018207923A1 (en) | Improved training of a classifier | |
DE102018114229A1 (en) | Method for determining a movement state of an object depending on a movement mask and a generated boundary frame, driver assistance system and motor vehicle | |
DE102016124123A1 (en) | A method for generating a cluster of image areas for capturing a target object in an image, computer program product, camera system and motor vehicle | |
DE102016103037A1 (en) | Method for checking the functionality of a camera-monitor system, camera-monitor system and motor vehicle | |
DE102009043705A1 (en) | Method and camera system for generating images for transmission to an external control unit | |
DE102019132012A1 (en) | Method and system for the detection of small unclassified obstacles on a road surface | |
DE102015112389A1 (en) | Method for detecting at least one object on a road in a surrounding area of a motor vehicle, camera system and motor vehicle | |
WO2020119996A1 (en) | Transfer of additional information between camera systems | |
DE102018205146A1 (en) | Test method for high-resolution headlamps using AI | |
DE102017215051A1 (en) | Apparatus and method for reducing the influence of stray light and reflections on optical image recognition | |
DE102022210890A1 (en) | Confidence-dependent image brightening | |
DE102013012781A1 (en) | Method for training an algorithm for recognizing predetermined patterns in image data, camera system and motor vehicle | |
WO2020094551A1 (en) | Method for operating a fisheye camera by use of a first compression algorithm and a second compression algorithm, electronic computing device, fisheye camera, and driver assistance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009340000 Ipc: G06V0030148000 |