DE102019204514A1 - Device and method for object detection - Google Patents
Device and method for object detection Download PDFInfo
- Publication number
- DE102019204514A1 DE102019204514A1 DE102019204514.6A DE102019204514A DE102019204514A1 DE 102019204514 A1 DE102019204514 A1 DE 102019204514A1 DE 102019204514 A DE102019204514 A DE 102019204514A DE 102019204514 A1 DE102019204514 A1 DE 102019204514A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- object detection
- scaling
- semantic segmentation
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
- G06V10/7515—Shifting the patterns to accommodate for positional errors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
Vorrichtung und computerimplementiertes Verfahren zur Objektdetektion wobei wenigstens ein Parameter (308A, 308B) für eine Skalierung wenigstens eines Teils eines Bildes, für eine Gewichtung für eine Wahrscheinlichkeit mit der es sich um ein bestimmtes Objekt handelt, oder eine Anzahl zu bestimmender Bildbereiche für die Objektdetektion abhängig von einem Ergebnis (306) einer semantischen Segmentierung (304) des Bildes (302) bestimmt wird, wobei durch den wenigstens einen Parameter (308A, 308B) und wenigstens einen Teil des Bildes ein Bildbereich definiert ist, wobei die Objektdetektion (310) abhängig vom Parameter in wenigstens einem Teil des Bildbereichs ausgeführt wird.Device and computer-implemented method for object detection, wherein at least one parameter (308A, 308B) depends on the scaling of at least a part of an image, a weighting for a probability with which it is a specific object, or a number of image areas to be determined for the object detection is determined by a result (306) of a semantic segmentation (304) of the image (302), an image area being defined by the at least one parameter (308A, 308B) and at least part of the image, the object detection (310) being dependent on Parameter is executed in at least a part of the image area.
Description
Stand der TechnikState of the art
Um Objekte in einem Bild zu detektieren, werden Algorithmen eingesetzt, welche als Detektoren bezeichnet werden. Bei herkömmlicher Objektdetektion wird ein Objekt detektiert, indem Koordinaten einer das Objekt umgebenden Box, einer Boundingbox, und für die Box ein Wahrscheinlichkeitswert einer Objektklasse bestimmt werden. Im Automobilsektor werden z.B. andere Fahrzeuge mit solchen Objektdetektoren detektiert. Dabei muss das System Objekte in unterschiedlichen Größen detektieren. Ein Fahrzeug, das sich sehr nah an einer Kamera eines anderen Fahrzeugs befindet, stellt ein Objekt dar, das durch eine deutlich größere Boundingbox beschrieben werden muss als Objekte, die Fahrzeuge darstellen, die sich in demgegenüber größerer Entfernung zur Kamera befinden. Diese Größenvariation erhöht den Suchraum und damit die Rechenanforderung an das System.In order to detect objects in an image, algorithms are used which are referred to as detectors. In conventional object detection, an object is detected by determining the coordinates of a box surrounding the object, a bounding box, and a probability value of an object class for the box. In the automotive sector, e.g. other vehicles detected with such object detectors. The system has to detect objects of different sizes. A vehicle that is very close to a camera of another vehicle represents an object that has to be described by a much larger bounding box than objects that represent vehicles that are located at a greater distance from the camera. This size variation increases the search space and thus the computational demands on the system.
Eine Methode beispielsweise das Umfeld eines Fahrzeugs zu beschreiben, stellt die semantische Segmentierung dar. Dabei wird jeder Pixel in einem von der Kamera erfassten Bild einer Klasse zugeordnet. Das führt dazu, dass auch Pixel von sehr kleinen Objekten in großer Entfernung klassifiziert werden. Einzelne Objekte sind durch herkömmliche semantische Segmentierung nicht voneinander unterscheidbar. Das heißt, dass im Bild ein Übergang zwischen Objekten der gleichen Klasse, wie z.B. zwei überlappende Fahrzeuge, nicht erkennbar sind.One method of describing the surroundings of a vehicle, for example, is semantic segmentation. Each pixel in an image captured by the camera is assigned to a class. This means that even pixels of very small objects are classified at a great distance. Individual objects cannot be distinguished from one another by conventional semantic segmentation. This means that in the picture there is a transition between objects of the same class, e.g. two overlapping vehicles are not recognizable.
Es existieren Ansätze, welche von einer semantischen Segmentierung ausgehend durch Verbindung und Spaltung von zusammenhängenden Segmenten Informationen von Objektgrenzen extrahieren. Eine bessere Performance als solche Ansätze zeigen Deep-Learning Methoden, welche die Eigenschaft der Objektdetektion und der semantischen Segmentierung kombinieren, wodurch dann pixelgenaue Objektbeschreibungen, eine Instanzsegmentierung, erzeugt werden. Beispielsweise werden dazu z.B. MaskRCNN eingesetzt. Diese sind beispielsweise in Mask R-CNN Kaiming, He et.al. arXiv: 1703.06870 beschrieben.There are approaches which, based on semantic segmentation, extract information from object boundaries by connecting and splitting connected segments. Deep learning methods that combine the property of object detection and semantic segmentation, which then generate pixel-precise object descriptions, an instance segmentation, are better performing than such approaches. For example, e.g. MaskRCNN used. These are for example in Mask R-CNN Kaiming, He et.al. arXiv: 1703.06870.
In einer initialen Objektdetektion werden die Boundingboxen bestimmt. In einer anschließenden Objektdetektion wird innerhalb einer durch die initiale Objektdetektion gefundenen Boundingbox eine semantische Segmentierung durchgeführt. Dies setzt eine gute initiale Objektdetektion voraus, da in der initialen Objektdetektion unerkannte Objekte in der Folge nicht erkannt werden.The bounding boxes are determined in an initial object detection. In a subsequent object detection, a semantic segmentation is carried out within a bounding box found by the initial object detection. This presupposes a good initial object detection, since objects that were not recognized in the initial object detection are subsequently not recognized.
Wünschenswert ist es, die Objektdetektion demgegenüber zu verbessern.In contrast, it is desirable to improve object detection.
Offenbarung der ErfindungDisclosure of the invention
Dies wird durch den Gegenstand der unabhängigen Ansprüche erreicht.This is achieved through the subject matter of the independent claims.
Ein computerimplementiertes Verfahren zur Objektdetektion, sieht vor, dass wenigstens ein Parameter für eine Skalierung wenigstens eines Teils eines Bildes, für eine Gewichtung für eine Wahrscheinlichkeit mit der es sich um ein bestimmtes Objekt handelt, oder eine Anzahl zu bestimmender Bildbereiche für die Objektdetektion abhängig von einem Ergebnis einer semantischen Segmentierung des Bildes bestimmt wird, wobei durch den wenigstens einen Parameter und wenigstens einen Teil des Bildes ein Bildbereich definiert ist, wobei die Objektdetektion abhängig vom Parameter in wenigstens einem Teil des Bildbereichs ausgeführt wird. Semantische Segmentierung umfasst die punktgenaue Lokalisation von Objekten in Bildern. Hierbei wird für jedes Pixel eines Bildes eine Zugehörigkeit zu einer bekannten Objektklasse bestimmt. Die Objektdetektion wird nur in dem Teil des Bildes durchgeführt, der durch die semantische Segmentierung bestimmt wurde. Dadurch wird die Leistungsfähigkeit der Objektdetektion verbessert. Beispielsweise werden in einer digitalen Bildverarbeitung mit einem künstlichen neuronalen Netz durch die semantische Segmentierung des Bildes Bereiche des Bildes als Kandidaten-Boundingboxen bestimmt und Objektklassen zugeordnet. Diese auf Objektklassen bezogenen Kandidaten-Boundingboxen lokalisieren bereits ein Objekt, das anschließend in der Objektdetektion detektiert wird.A computer-implemented method for object detection provides that at least one parameter for scaling at least a part of an image, for weighting a probability with which it is a specific object, or a number of image areas to be determined for object detection depending on one The result of a semantic segmentation of the image is determined, an image area being defined by the at least one parameter and at least part of the image, the object detection being carried out in at least a part of the image area as a function of the parameter. Semantic segmentation encompasses the precise localization of objects in images. For each pixel of an image, an association with a known object class is determined. The object detection is only carried out in the part of the image that was determined by the semantic segmentation. This improves the performance of object detection. For example, in digital image processing with an artificial neural network, the semantic segmentation of the image determines areas of the image as candidate bounding boxes and assigns them to object classes. These candidate bounding boxes, which are related to object classes, already localize an object that is then detected in the object detection.
In einem Aspekt ist vorgesehen, dass der Bildbereich im Bild mittels Skalierung abhängig vom Teil des Bildes bestimmt wird. Indem das Objekt in einem skalierten Bildbereich detektiert wird, sind ansonsten in normaler Auflösung des Bildes nicht detektierbare Objekte auffindbar.In one aspect it is provided that the image area in the image is determined by means of scaling as a function of the part of the image. Since the object is detected in a scaled image area, objects that are otherwise undetectable can be found in the normal resolution of the image.
Vorzugsweise wird in diesem Aspekt eine Größe des Teils des Bildes mit einer Referenzgröße verglichen, wobei der Teil des Bildes durch die Skalierung vergrößert wird, wenn die Größe die Referenzgröße unterschreitet oder wobei der Teil des Bildes durch die Skalierung verkleinert wird, wenn der Bildbereich die Referenzgröße überschreitet. Sehr kleine Teile des Bildes mit Objektpixeln können hoch skaliert werden, sodass Objekte detektierbar sind, welche in der normalen Auflösung nicht gefunden worden wären. Andererseits sind sehr große Objekte in sehr großen Teilen des Bildes, die zu groß für den Sichtbereich des Detektors sind durch niedriger Skalieren detektierbar.In this aspect, a size of the part of the image is preferably compared with a reference size, the part of the image being enlarged by the scaling if the size falls below the reference size or the part of the image being reduced by the scaling if the image area is the reference size exceeds. Very small parts of the image with object pixels can be scaled up so that objects can be detected which would not have been found in the normal resolution. On the other hand, very large objects in very large parts of the image that are too large for the field of view of the detector can be detected by low scaling.
In einem Aspekt bestimmt die semantische Segmentierung eine Objektklasse aus einer Vielzahl Objektklassen, wobei wenigstens eine Eigenschaft eines Detektors für die Objektdetektion abhängig von der Objektklasse bestimmt wird. Damit sind für diese Objektklasse besonders geeignete Eigenschaften eines Detektors einsetzbar. Dies verbessert die Objektdetektion zusätzlich.In one aspect, the semantic segmentation determines an object class from a plurality of object classes, with at least one property a detector for object detection is determined depending on the object class. Properties of a detector which are particularly suitable for this object class can therefore be used. This also improves object detection.
Vorzugsweise umfasst das Bild eine Vielzahl Pixel, wobei die semantische Segmentierung pixelweise oder superpixelweise Objektklassen zu Pixeln zuordnet. Superpixelweise bedeutet mehrere zusammengefasste Pixel werden zusammen betrachtet. Diese punktgenaue Zuordnung ermöglicht die Objektdetektion auf Objektpixeln durchzuführen. Dies verbessert die Objektdetektion zusätzlich.The image preferably comprises a plurality of pixels, the semantic segmentation assigning object classes to pixels by pixel or by super pixel. Superpixel means several combined pixels are considered together. This precise assignment enables object detection to be carried out on object pixels. This also improves object detection.
Vorzugsweise ist der Teil des Bildes durch einen zusammenhängenden Bereich von Pixeln definiert, die derselben Objektklasse zugeordnet sind. Damit wird die Objektdetektion mit Pixeln eines bestimmten detektierten Objekts dieser Objektklasse ausgeführt.The part of the image is preferably defined by a contiguous area of pixels which are assigned to the same object class. The object detection is thus carried out with pixels of a specific detected object of this object class.
Hinsichtlich der Vorrichtung zur Objektdetektion, ist vorgesehen, dass die Vorrichtung eine Klassifiziereinrichtung umfasst, die ausgebildet ist, wenigstens einen Parameter für eine Skalierung wenigstens eines Teils eines Bildes, für eine Gewichtung für eine Wahrscheinlichkeit mit der es sich um ein bestimmtes Objekt handelt, oder eine Anzahl zu bestimmender Bildbereiche für die Objektdetektion abhängig von einem Ergebnis einer semantischen Segmentierung des Bildes zu bestimmen, wobei durch den wenigstens einen Parameter und wenigstens einem Teil des Bildes ein Bildbereich definiert ist, wobei die Vorrichtung einen Detektor umfasst, der ausgebildet ist, die Objektdetektion abhängig vom Parameter in wenigstens einem Teil des Bildbereichs auszuführen. Diese Vorrichtung ist wesentlich effektiver als sequentiell arbeitende Einzelsysteme.With regard to the device for object detection, it is provided that the device comprises a classification device which is designed to include at least one parameter for scaling at least a part of an image, for a weighting for a probability with which it is a specific object, or a To determine the number of image areas to be determined for the object detection as a function of a result of a semantic segmentation of the image, an image area being defined by the at least one parameter and at least a part of the image, the device comprising a detector which is designed to depend on the object detection of the parameter in at least a part of the image area. This device is much more effective than sequentially working individual systems.
Die Vorrichtung umfasst vorteilhafterweise eine Skaliereinrichtung, die ausgebildet ist, den Bildbereich im Bild mittels Skalierung abhängig vom Teil des Bildes zu bestimmen. Die Skaliereinrichtung ermöglicht es, Teile des Bildes für eine Erkennung ansonsten unauffindbarer Objekte an den Detektor anzupassen.The device advantageously comprises a scaling device which is designed to determine the image area in the image by means of scaling as a function of the part of the image. The scaling device makes it possible to adapt parts of the image to the detector for the purpose of recognizing otherwise undetectable objects.
Vorzugsweise ist die Skaliereinrichtung ausgebildet, eine Größe des Teils des Bildes mit einer Referenzgröße zu vergleichen, den Teil des Bildes durch die Skalierung zu vergrößern, wenn die Größe die Referenzgröße unterschreitet oder den Teil des Bildes durch die Skalierung zu verkleinern, wenn der Bildbereich die Referenzgröße überschreitet. Die Referenzgröße ermöglicht eine Wahl der Richtung der Anpassung der Größe.The scaling device is preferably designed to compare a size of the part of the image with a reference size, to enlarge the part of the image by scaling if the size falls below the reference size or to reduce the part of the picture by scaling if the image area is the reference size exceeds. The reference size enables a choice of the direction of the adjustment of the size.
Die Klassifiziereinrichtung ist vorzugsweise ausgebildet, mittels semantischer Segmentierung eine Objektklasse aus einer Vielzahl Objektklassen zu bestimmen, und wenigstens eine Eigenschaft des Detektors für die Objektdetektion abhängig von der Objektklasse zu bestimmen. Damit ist der Detektor für die jeweilige Objektklasse einstellbar.The classification device is preferably designed to determine an object class from a plurality of object classes by means of semantic segmentation and to determine at least one property of the detector for object detection as a function of the object class. This means that the detector can be set for the respective object class.
Vorzugsweise umfasst das Bild eine Vielzahl Pixel, wobei die Klassifiziereinrichtung ausgebildet ist mittels semantischer Segmentierung pixelweise oder superpixelweise Objektklassen zu Pixeln zuzuordnen. Dies ermöglicht eine pixelweise Zuordnung von Parametern zu den Pixeln der verschiedenen Objektklassen.The image preferably comprises a plurality of pixels, the classification device being designed to assign object classes to pixels by means of semantic segmentation, pixel by pixel or super pixel by pixel. This enables a pixel-by-pixel assignment of parameters to the pixels of the various object classes.
Vorzugsweise ist der Teil des Bildes durch einen zusammenhängenden Bereich von Pixeln definiert, die derselben Objektklasse zugeordnet sind. Der auf dem Teil des Bildes beruhende Bildbereich ist durch den Parameter definiert. Dadurch sind die Pixel eines Objekts durch Pixel derselben Objektklasse demselben Parameter zugeordnet.The part of the image is preferably defined by a contiguous area of pixels which are assigned to the same object class. The image area based on the part of the image is defined by the parameter. As a result, the pixels of an object are assigned to the same parameter by pixels of the same object class.
Weitere vorteilhafte Ausführungsformen ergeben sich aus der folgenden Beschreibung und der Zeichnung. In der Zeichnung zeigt
-
1 eine schematische Darstellung von Teilen einer Vorrichtung zur Objektdetektion, -
2 Schritte in einem Verfahren zur Objektdetektion, -
3 eine schematische Darstellung eines Teils einer Objektdetektion, -
4 eine schematische Darstellung eines Teils einer Skalierung.
-
1 a schematic representation of parts of a device for object detection, -
2 Steps in a method for object detection, -
3 a schematic representation of part of an object detection, -
4th a schematic representation of part of a scaling.
Die Vorrichtung
Die Eingabeeinrichtung
Die Klassifiziereinrichtung
Die Klassifiziereinrichtung
Der Bildbereich ist in einem Aspekt ein Teil des Bildes.The image area is part of the image in one aspect.
In einem anderen Aspekt wird der Bildbereich im Bild mittels Skalierung abhängig von einem Teil des Bildes bestimmt, der abhängig vom Parameter definiert ist. In diesem Aspekt ist die die Skaliereinrichtung
Die Skaliereinrichtung
Die Klassifiziereinrichtung
Die Klassifiziereinrichtung
In einem Aspekt umfasst das Bild eine Vielzahl Pixel. In diesem Aspekt kann die die Klassifiziereinrichtung
Vorzugsweise ist in diesem Aspekt der Teil des Bildes durch einen zusammenhängenden Bereich von Pixeln definiert, die derselben Objektklasse zugeordnet sind.In this aspect, the part of the image is preferably defined by a contiguous area of pixels which are assigned to the same object class.
Der Detektor
Der Detektor
Die Klassifiziereinrichtung
Ein computerimplementiertes Verfahren zur Objektdetektion wird anhand der
In einem Schritt
Im Schritt
Im optionalen Schritt
Anschließend wird ein Schritt
Wenn der optional Schritt
Im Schritt
Im Schritt
In diesem Fall kann im Schritt
Anschließend endet das Verfahren.Then the process ends.
Es kann vorgesehen sein, für die Objektdetektion in den Teilen des Bildes, in denen durch semantische Segmentierung keine Zuordnung von Pixel zu Objektklasse bestimmbar ist, einen Detektor zu verwenden, dessen Eigenschaft hinsichtlich der Vielzahl Objektklassen unspezifisch ist.Provision can be made for object detection in those parts of the image in which, due to semantic segmentation, no assignment of Pixel to object class can be determined to use a detector whose property is unspecific with regard to the large number of object classes.
In einem Aspekt ist vorgesehen, dass für eine Vielzahl Bilder eine Vielzahl Objektdetektionen durch das beschriebene Vorgehen durchgeführt wird. Wenn beispielsweise ein künstliches neuronales Netz für die semantische Segmentierung verwendet wird, werden beispielsweise als Parameter Ankerpunkte von Boundingboxen bestimmt. Für ein beispielhaftes neuronales Netz werden im Verfahren eine Vielzahl Parameter bestimmt. Dies ist gleichzusetzen mit der Erzeugung von Kandidaten-Boundingboxen. Das bedeutet, dass das künstliche neuronale Netz für semantische Segmentierung durch ein künstliches neuronales Netz ergänzt wird, welches auf Basis der semantischen Segmentierung die Erzeugung von Kandidaten-Boundingboxen lernt. Der Vorteil dabei ist es, dass große Kandidaten-Boundingboxen in großen Bereichen des Bildes erzeugt werden, die ein Objekt einer Objektklasse enthalten, wobei kleine Kandidaten-Boundingboxen in kleinen Bereichen des Bildes erzeugt werden, die ein Objekt derselben Objektklasse enthalten. Bereiche des Bildes, die keiner Objektklasse zugeordnet werden, erhalten keine Boundingbox. Durch diese reduzierte Anzahl der Kandidaten wird der Rechenaufwand und die benötigten Rechen-Ressourcen für die anschließende Objekterkennung um ein Vielfaches reduziert.In one aspect it is provided that a plurality of object detections are carried out for a plurality of images using the procedure described. If, for example, an artificial neural network is used for the semantic segmentation, anchor points of bounding boxes are determined as parameters, for example. A large number of parameters are determined in the method for an exemplary neural network. This equates to the creation of candidate bounding boxes. This means that the artificial neural network for semantic segmentation is supplemented by an artificial neural network which learns to generate candidate bounding boxes on the basis of the semantic segmentation. The advantage here is that large candidate bounding boxes are generated in large areas of the image that contain an object of one object class, while small candidate bounding boxes are generated in small areas of the image that contain an object of the same object class. Areas of the image that are not assigned to any object class are not given a bounding box. As a result of this reduced number of candidates, the computing effort and the computing resources required for the subsequent object recognition are reduced many times over.
Für ein Bild
Basierend auf dem Bild
In diesem Beispiel wird für den kleinen zweiten Bereich 306AB ein Detektor für die Objektdetektion
Optional wird anstelle oder zusätzlich zur Anpassung des Detektors, der Bildbereich
Für sehr große Objekte, in denen die semantische Segmentierung beispielsweise viele Kandidaten-Boundingboxen bestimmt, die Objekte innerhalb der äußeren Umrisse eines Fahrzeugs angeben, kann es sinnvoll sein, ausgehend von einem unskalierten Bildbereich, eine Skalierung zur Verkleinerung eines skalierten Bildbereichs zu bestimmen.For very large objects in which the semantic segmentation determines, for example, many candidate bounding boxes that specify objects within the outer contours of a vehicle, it can be useful to use an unscaled image area as a starting point to determine a scaling to reduce a scaled image area.
In diesen Beispielen wird ein Eingangsbild durch die semantische Segmentierung vorzugsweise pixelweise klassifiziert, indem Bildbereiche mit Pixeln bestimmt werden, welche derselben Objektklasse, z.B. Fahrzeug, zugeordnet sind. Diese Bildbereiche werden im Beispiel der Größe ihrer Fläche nach in unterschiedliche Kategorien eingeteilt. Flächenmäßig große zusammenhängende Bereiche werden optional herunterskaliert und einem Detektor der Objektklasse, im Beispiel Fahrzeug, zugeführt. Der Detektor wird mit den optimalen Parametern für diese Größe und/oder Objektklasse betrieben. Mit kleinen Bereichen wird entsprechend verfahren, wobei diese Bilder wahlweise hochskaliert werden, um die sehr kleinen Objekte der Objektklasse, im Beispiel Fahrzeug, zu detektieren.In these examples, an input image is classified by the semantic segmentation, preferably pixel by pixel, in that image areas are determined with pixels belonging to the same object class, e.g. Vehicle, are assigned. In the example, these image areas are divided into different categories according to their area. Coherent areas of large area are optionally scaled down and fed to a detector of the object class, in the example vehicle. The detector is operated with the optimal parameters for this size and / or object class. Small areas are dealt with accordingly, with these images optionally being scaled up in order to detect the very small objects of the object class, in the example vehicle.
Daraus resultiert eine Objektdetektion, welche in einem Bild Objekte unterschiedlichster Größe erfassen kann. Für die Funktion der Objektdetektion ist die vorherige Aufteilung auf die Boundingbox-Ebene günstig, da eine Anzahl der Kandidaten-Boundingboxen nach der semantischen Segmentierung geringer ist, als es durch eine Bestimmung von Boundingboxen ohne die semantische Segmentierung möglich ist. Die führt zu einer deutlichen Reduzierung der Laufzeit.This results in object detection that can capture objects of the most varied of sizes in one image. The previous division on the bounding box level is favorable for the function of the object detection, since a number of candidate bounding boxes after the semantic segmentation is less than is possible by determining bounding boxes without the semantic segmentation. This leads to a significant reduction in the running time.
Bei der hier beschriebenen Methode ist es möglich die Ausgaben beider Algorithmen, d.h. des Algorithmus für die semantische Segmentierung und für die Objektdetektion, gleichwertig zu behandeln und durch die gewonnene Redundanz eine höhere Stabilität des Systems zu erreichen. Die Objektdetektion kann in den Bereichen, in denen die semantische Segmentierung fälschlicherweise keine Pixel der Objektklasse, im Beispiel Fahrzeug, klassifiziert hat, mit den Standardparametern durchgeführt werden und bei einer sehr hohen Detektionswahrscheinlichkeit für ein Objekt der Objektklasse die semantische Segmentierung überstimmen.With the method described here it is possible to output both algorithms, i.e. of the algorithm for semantic segmentation and for object detection, to be treated equally and to achieve a higher stability of the system through the redundancy obtained. The object detection can be carried out with the standard parameters in those areas in which the semantic segmentation has incorrectly classified any pixels of the object class, in the example vehicle, and overrule the semantic segmentation with a very high detection probability for an object of the object class.
Wie in
Dieses System ist beispielsweise für Personendetektion im Überwachungsbereich, in der Robotik oder im Automobilsektor einsetzbar, insbesondere wenn die Objektgrößen besonders im Nah- und Fernbereich sehr stark variieren. Weiterhin ist gerade auf der Autobahn bei hohen Geschwindigkeiten die Detektion von Fahrzeugen auch in der Ferne notwendig. Beispielsweise ist ein Einsatz bei automated emergency breaking sehr vorteilhaft.This system can be used, for example, for person detection in the surveillance area, in robotics or in the automotive sector, especially when the object sizes vary greatly, especially in the near and far range. Furthermore, the detection of vehicles from a distance is necessary, especially on the motorway at high speeds. For example, use in automated emergency breaking is very advantageous.
Claims (16)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019204514.6A DE102019204514A1 (en) | 2019-03-29 | 2019-03-29 | Device and method for object detection |
CN202010231402.8A CN111753838A (en) | 2019-03-29 | 2020-03-27 | Method and apparatus for object detection |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019204514.6A DE102019204514A1 (en) | 2019-03-29 | 2019-03-29 | Device and method for object detection |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019204514A1 true DE102019204514A1 (en) | 2020-10-01 |
Family
ID=72612266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019204514.6A Pending DE102019204514A1 (en) | 2019-03-29 | 2019-03-29 | Device and method for object detection |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111753838A (en) |
DE (1) | DE102019204514A1 (en) |
-
2019
- 2019-03-29 DE DE102019204514.6A patent/DE102019204514A1/en active Pending
-
2020
- 2020-03-27 CN CN202010231402.8A patent/CN111753838A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN111753838A (en) | 2020-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018116111B4 (en) | A unified deep convolutional neural network for free space estimation, object recognition estimation, and object pose estimation | |
EP2467828B1 (en) | Method and system for automatic object detection and subsequent object tracking in accordance with the object shape | |
DE102017220307B4 (en) | Device and method for recognizing traffic signs | |
DE102017203276B4 (en) | Method and device for determining a trajectory in off-road scenarios | |
DE102018128531A1 (en) | System and method for analyzing a three-dimensional environment represented by a point cloud through deep learning | |
WO2020049154A1 (en) | Method and device for classifying objects | |
EP2483834B1 (en) | Method and apparatus for the recognition of a false object detection in an image | |
DE102021003567A1 (en) | Process for the recognition of object relationships and attributions from sensor data | |
DE102019129029A1 (en) | OBJECT DETECTION SYSTEM AND METHOD | |
DE102021200643B3 (en) | Method for environment recognition for semi-autonomous or autonomous driving functions of a motor vehicle using a neural network | |
DE102019204514A1 (en) | Device and method for object detection | |
EP2359308B1 (en) | Device for creating and/or processing an object signature, monitoring device, method and computer program | |
DE102022201679A1 (en) | Method and device for training a neural network | |
DE102020128952A1 (en) | Method and assistance device for two-stage image-based scene recognition and motor vehicle | |
WO2021063572A1 (en) | Device and method for processing data from a neural network | |
EP1998272A2 (en) | Device for determining an object and/or probability of a search object existing in a readout window of a picture, method and computer program | |
DE102020105070A1 (en) | Method for recognizing a drivable area in the surroundings of a vehicle with the aid of a binary artificial neural network, computing device and driver assistance system | |
DE102019220615A1 (en) | Method and device for recognizing and classifying objects | |
WO2019072451A1 (en) | Method for processing images | |
DE4404775C1 (en) | Method for operating a hybrid neural network for automatic object recognition | |
EP4296970A1 (en) | Computer-implemented method and system for creating a virtual vehicle environment | |
DE102021124649A1 (en) | Method and device for generating images using scene graphs | |
EP4205047A1 (en) | Quality assurance method for an example-based system | |
DE102022001208A1 (en) | Method for predicting trajectories of objects | |
DE102022115189A1 (en) | Method, processor circuit and computer-readable storage medium for operating pedestrian detection using a processor circuit of a motor vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009500000 Ipc: G06V0030184000 |