DE102017214973A1 - Method and apparatus for image based object identification for a vehicle - Google Patents
Method and apparatus for image based object identification for a vehicle Download PDFInfo
- Publication number
- DE102017214973A1 DE102017214973A1 DE102017214973.6A DE102017214973A DE102017214973A1 DE 102017214973 A1 DE102017214973 A1 DE 102017214973A1 DE 102017214973 A DE102017214973 A DE 102017214973A DE 102017214973 A1 DE102017214973 A1 DE 102017214973A1
- Authority
- DE
- Germany
- Prior art keywords
- image data
- vehicle
- camera
- image
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Abstract
Die Erfindung betrifft ein Verfahren zur bildbasierenden Objektidentifikation für ein Fahrzeug 100, wobei das Verfahren einen Schritt des Einlesens von einer Umgebung des Fahrzeugs 100 abbildenden Bilddaten einer Kamera 106 umfasst, wobei die Kamera 106 an einer Aufnahmeposition im Fahrzeug 100 angeordnet ist. Weiterhin umfasst das Verfahren einen Schritt des Umrechnens der Bilddaten in Hilfsbilddaten, wobei die Hilfsbilddaten dem Abbild der Umgebung des Fahrzeugs 100 aus einer an einer Auswerteposition angeordneten Kamera 110 entsprechen. Schließlich umfasst das Verfahren einen Schritt des Anwendens zumindest eines Klassifikators zur Identifikation eines Objekts 104 aus den Hilfsbilddaten, wobei der Klassifikator auf das Erkennen von Objekten 104 aus Bilddaten eines Bildes von einer in der Auswerteposition angeordneten Kamera 110 trainiert ist. The invention relates to a method for image-based object identification for a vehicle 100, the method comprising a step of reading image data of a camera 106 depicting an environment of the vehicle 100, wherein the camera 106 is arranged at a pickup position in the vehicle 100. Furthermore, the method comprises a step of converting the image data into auxiliary image data, the auxiliary image data corresponding to the image of the surroundings of the vehicle 100 from a camera 110 arranged at an evaluation position. Finally, the method comprises a step of applying at least one classifier for identifying an object 104 from the auxiliary image data, wherein the classifier is trained to detect objects 104 from image data of an image from a camera 110 arranged in the evaluation position.
Description
Stand der TechnikState of the art
Die Erfindung geht von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche aus. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.The invention is based on a device or a method according to the preamble of the independent claims. The subject of the present invention is also a computer program.
Die Erkennung von Objekten mittels eines Kamerasystems gewinnt in vielen Bereichen zunehmend an Bedeutung. Insbesondere im Fahrzeugumfeld sind Kamerasysteme mit Funktionen zur Erkennung von Objekten, beispielsweise die Detektion von Fußgängern, für diverse Assistenzfunktionen bis hin zum automatisierten Fahren zwingend erforderlich.The recognition of objects by means of a camera system is becoming increasingly important in many areas. Particularly in the vehicle environment, camera systems with functions for detecting objects, for example the detection of pedestrians, for various assistance functions up to automated driving are absolutely necessary.
Offenbarung der ErfindungDisclosure of the invention
Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zur bildbasierenden Objektidentifikation für ein Fahrzeug, weiterhin eine Vorrichtung sowie ein Steuergerät, das dieses Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.Against this background, with the approach presented here, a method for image-based object identification for a vehicle, furthermore a device and a control unit, which uses this method, and finally a corresponding computer program according to the main claims are presented. The measures listed in the dependent claims advantageous refinements and improvements of the independent claim device are possible.
Durch eine horizontale und/oder vertikale Drehung und/oder Verschiebung von Bilddaten, die einer veränderten Kameraposition eines Fahrzeuges entsprechen, kann eine Objektidentifikation durchgeführt werden, ohne die Notwendigkeit neue Bildbeispiele aufzunehmen sowie Objektklassifikatoren zu trainieren. Es können somit bereits trainierte Klassifikatoren für Bilder verwendet werden, die mittels Bildern von einer anderen Kameraperspektive aus trainiert wurden, wobei eine Umrechnung der Bilddaten in diejenigen Bilddaten erfolgt, für die der Klassifikator trainiert wurde.By a horizontal and / or vertical rotation and / or displacement of image data corresponding to a changed camera position of a vehicle, an object identification can be performed without the need to take new image examples and train object classifiers. It is thus possible to use already trained classifiers for images which have been trained by means of images from a different camera perspective, whereby a conversion of the image data into the image data for which the classifier was trained.
Es wird ein Verfahren zur bildbasierenden Objektidentifikation für ein Fahrzeug vorgestellt, wobei das Verfahren die folgenden Schritte umfasst:
- Einlesen von eine Umgebung des Fahrzeugs abbildenden Bilddaten einer Kamera, die an einer Aufnahmeposition im Fahrzeug angeordnet ist;
- Umrechnen der Bilddaten in Hilfsbilddaten, wobei die Hilfsbilddaten dem Abbild der Umgebung des Fahrzeugs aus einer an einer Auswerteposition angeordneten Kamera entsprechen; und
- Anwenden zumindest eines Klassifikators zur Identifikation eines Objekts aus den Hilfsbilddaten, wobei der Klassifikator auf das Erkennen von Objekten aus Bilddaten eines Bildes von einer in der Auswerteposition angeordneten Kamera trainiert ist.
- Reading image data of a camera imaging surroundings of the vehicle, which is arranged at a pickup position in the vehicle;
- Converting the image data into auxiliary image data, the auxiliary image data corresponding to the image of the surroundings of the vehicle from a camera arranged at an evaluation position; and
- Applying at least one classifier for identifying an object from the auxiliary image data, wherein the classifier is trained on recognizing objects from image data of an image from a camera arranged in the evaluation position.
Bei einem Fahrzeug kann es sich um ein Fahrzeug zur Personenbeförderung, beispielsweise ein hochautomatisiert fahrendes Fahrzeug, handeln. Bei einer Kamera kann es sich um eine Objekte erfassende Stereokamera handeln, die am Fahrzeug angeordnet ist. Unter einer Objektidentifikation kann ein Verfahren bezeichnet werden, bei dem sich in aufgenommenen Bilddaten eine Anzahl diverser Klassifikatoren identifizieren lässt, die dasselbe Objekt in der realen Welt repräsentieren. Bei einem Klassifikator kann es sich hierbei um eine Instanz oder einen Algorithmus handeln, die/der Objekte klassiert, also in Kategorien einordnet. Bei Bilddaten kann es sich um eine Mehrzahl zusammengesetzter Bildpunkte (Pixel) handeln, die eine Umgebung eines Fahrzeugs abbilden, die einer an einer Aufnahmeposition angeordneten Kamera entspricht. Bei Hilfsbilddaten kann es sich um umgerechnete Bilddaten handeln, die dem Abbild der Umgebung eines Fahrzeugs aus einer an einer Auswerteposition angeordneten Kamera entsprechen würde. Bei einer Aufnahmeposition kann es sich um eine aktuelle, erhöhte Position der Kamera am Fahrzeug handeln. Bei einer Auswerteposition kann es sich hingegen um eine vertiefte oder niedriger (beispielsweise in Bezug auf einen Abstand zu einer Fahrbahn) im Fahrzeug angeordnete Referenzposition der Kamera am Fahrzeug handeln.A vehicle may be a passenger vehicle, such as a highly automated vehicle. A camera may be an object-sensing stereo camera located on the vehicle. An object identification may be a method in which a number of different classifiers representing the same object in the real world can be identified in recorded image data. A classifier can be an instance or an algorithm that classifies objects, ie classifies them into categories. Image data may be a plurality of composite pixels that map an environment of a vehicle that corresponds to a camera located at a shooting position. Auxiliary image data can be converted image data which would correspond to the image of the surroundings of a vehicle from a camera arranged at an evaluation position. A shooting position may be a current, elevated position of the camera on the vehicle. On the other hand, an evaluation position can be a reference position of the camera on the vehicle that is recessed or lower (for example with respect to a distance to a roadway) in the vehicle.
Gemäß einer Ausführungsform kann im Schritt des Einlesens die Umgebung des Fahrzeugs dreidimensional abgebildet werden. Vorteilhafterweise führt eine dreidimensionale Aufnahme der Fahrzeugumgebung zu einer gesteigerten Informationsdichte zur Fahrzeugumgebung und dient daher einer schnelleren Gefahrenerkennung und Unfallvermeidung.According to one embodiment, in the reading step, the environment of the vehicle may be three-dimensionally imaged. Advantageously, a three-dimensional recording of the vehicle environment leads to an increased density of information to the vehicle environment and therefore serves a faster detection of hazards and accident prevention.
Gemäß einer Ausführungsform kann im Schritt des Einlesens eine abgebildete Bilddatei eine Entfernungsinformation in Bezug auf das Objekt in der Umgebung des Fahrzeugs aufweisen. Durch das Wissen um eine Objektentfernung kann eine Objektgeschwindigkeit errechnet werden, was eine schnellere Gefahrenerkennung und dadurch eine gesteigerte Unfallvermeidung ermöglicht.According to one embodiment, in the reading step, a mapped image file may include distance information related to the object in the vicinity of the vehicle. By knowing about an object distance, an object speed can be calculated, which allows a faster detection of danger and thereby an increased accident avoidance.
Gemäß einer Ausführungsform können im Schritt des Einlesens Entfernungsdaten eingelesen werden, die von einem Sensor bereitgestellt werden, insbesondere wobei der Sensor sich von der Kamera unterscheidet und/oder auf einem von einem optischen Messprinzip abweichenden Messprinzip arbeitet. Bei dem optischen Messprinzip kann es sich beispielweise um die Auswertung aus einem mit einer Kamera erfassten Bild handeln, sodass gemäß der hier vorgestellten Ausführungsform beispielsweise zur Erfassung von Entfernungsdaten auf einen Lidar-Sensor, Radar-Sensor, Ultraschall-Sensor und/oder einen Infrarot-Sensor zurückgegriffen werden kann.According to one embodiment, in the reading step, distance data provided by a sensor can be read in, in particular wherein the sensor differs from the camera and / or operates on a measuring principle deviating from an optical measuring principle. The optical measuring principle can be, for example, the evaluation of an image acquired with a camera, so that according to FIG The embodiment presented here can be used, for example, to record distance data on a lidar sensor, radar sensor, ultrasound sensor and / or an infrared sensor.
Gemäß einer weiteren Ausführungsform können im Schritt des Umrechnens Hilfsbilddaten errechnet werden, die eine vorbekannte horizontale und/oder vertikale Drehung und/oder eine vorbekannte horizontale und/oder vertikale Verschiebung einer Position der Kamera von der Aufnahmeposition in die Auswerteposition repräsentieren. Je nach Anwendungsfall brauchen somit mit der Ausführungsform des vorgestellten Verfahrens weder neue Bildbeispiele aufgenommen noch die Objektklassifikation neu trainiert werden, sondern es brauchen lediglich bekannte Zusammenhänge der Verzerrung bzw. einer Verschiebung von Elementen in dem Bild umgerechnet werden, um die Hilfsbilddaten zu erhalten.According to a further embodiment, in the step of converting auxiliary image data can be calculated which represent a previously known horizontal and / or vertical rotation and / or a known horizontal and / or vertical displacement of a position of the camera from the recording position to the evaluation position. Depending on the application, neither new image examples nor the object classification need to be re-trained with the embodiment of the presented method, but only known relationships of the distortion or a shift of elements in the image need to be converted in order to obtain the auxiliary image data.
Gemäß einer Ausführungsform können im Schritt des Umrechnens Hilfsbilddaten dann errechnet werden, wenn die vorbekannte Drehung innerhalb eines Toleranzwinkelbereichs und/oder die vorbekannte Verschiebung der Position der Kamera innerhalb eines Toleranzhöhenbereichs liegt. Vorausgesetzt ist, dass die Drehung und/oder Verschiebung der Kameraposition keine generelle Perspektivänderung zur Folge hat, also nicht von einer Zentralperspektive der Auswerteposition der Kamera in eine Vogelperspektive der Aufnahmeposition der Kamera verschobenen und gedreht wird. Eine solche Ausführungsform bietet den Vorteil, dass sichergestellt ist, dass durch den Perspektivwechsel die Proportionen des Objektes noch korrekt wiederhergestellt bzw. rekonstruiert werden können, sodass der Klassifikator noch eine korrekte Klassierung vornehmen kann.According to one embodiment, in the step of converting, auxiliary image data may be calculated when the known rotation is within a tolerance angle range and / or the previously known displacement of the position of the camera is within a tolerance height range. It is assumed that the rotation and / or displacement of the camera position does not result in a general change in perspective, ie is not shifted and rotated from a central perspective of the evaluation position of the camera into a bird's-eye view of the camera's shooting position. Such an embodiment offers the advantage that it is ensured that the proportions of the object can still be correctly restored or reconstructed by the change of perspective, so that the classifier can still perform a correct classification.
Gemäß einer Ausführungsform können im Schritt des Umrechnens in den Hilfsbilddaten zumindest Ergänzungsbilddaten eingefügt werden, die einer perspektivischen Ansicht von Objekten in der Umgebung des Fahrzeugs entspricht, die aus der Aufnahmeposition verborgen sind. Solche Ergänzungsbilddaten können beispielsweise aus einem Speicher entnommen werden, in dem vorbestimmte Zusammenhänge oder Objektabmessungen hinterlegt sind, die bei einem bestimmten Objekt bzw. bei einer erkannten vorbestimmten Struktur im Bild mit hoher Wahrscheinlichkeit vermutet werden können. Diese Vorgehensweise kann eine Güte der Objektidentifikation deutlich erhöhen.According to an embodiment, in the step of converting in the auxiliary image data, at least supplementary image data corresponding to a perspective view of objects in the vicinity of the vehicle hidden from the photographing position may be inserted. Such additional image data can be taken, for example, from a memory in which predetermined relationships or object dimensions are stored, which can be assumed to be highly probable in the image for a specific object or for a recognized predetermined structure. This approach can significantly increase a quality of object identification.
Gemäß einer Ausführungsform kann im Schritt des Anwendens zumindest ein Klassifikator verwendet werden, der auf die Identifikation des Objekts in zweidimensionalen Bilddaten trainiert ist. Dieser trainierte Klassifikator kann über den Einsatz zusätzlicher entfernungsmessender Sensorik auch in einer Fahrzeugumgebung zum Einsatz kommen, für die er ursprünglich nicht vorgesehen war. Auf diese Weise kann die Einsatzflexibilität von bereits trainierten Klassifikatoren erhöht werden, sodass auch von weiteren Trainingsszenarios außerhalb des Automobilbereichs profitiert werden kann.According to one embodiment, in the step of applying, at least one classifier trained on the identification of the object in two-dimensional image data may be used. This trained classifier can also be used in a vehicle environment for which it was originally not intended, through the use of additional distance-measuring sensors. In this way, the versatility of already trained classifiers can be increased, so that further training scenarios outside the automotive sector can also be benefited.
Gemäß einer Ausführungsform kann das Verfahren einen Schritt des Ansteuerns eines Fahrerassistenzsystems unter Verwendung eines Objektidentifizierungssignals aufweisen, das ein aus den Hilfsbilddaten identifiziertes Objekt repräsentiert. Das Fahrerassistenzsystem kann hierbei einer Unfallvermeidung dienen, wenn beispielweise eine Kollision mit dem identifizierten Objekt bevorsteht.According to one embodiment, the method may include a step of driving a driver assistance system using an object identification signal representing an object identified from the auxiliary image data. In this case, the driver assistance system can serve to avoid accidents if, for example, a collision with the identified object is imminent.
Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.
Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.The approach presented here also creates a device that is designed to perform the steps of a variant of a method presented here in appropriate facilities to drive or implement. Also by this embodiment of the invention in the form of a device, the object underlying the invention can be solved quickly and efficiently.
Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EEPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.For this purpose, the device may comprise at least one computing unit for processing signals or data, at least one memory unit for storing signals or data, at least one interface to a sensor or an actuator for reading sensor signals from the sensor or for outputting data or control signals to the sensor Actuator and / or at least one communication interface for reading or outputting data embedded in a communication protocol. The arithmetic unit may be, for example, a signal processor, a microcontroller or the like, wherein the memory unit may be a flash memory, an EEPROM or a magnetic memory unit. The communication interface can be designed to read or output data wirelessly and / or by line, wherein a communication interface that can read or output line-bound data, for example, electrically or optically read this data from a corresponding data transmission line or output in a corresponding data transmission line.
Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.In the present case, a device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon. The device may have an interface, which may be formed in hardware and / or software. At a For example, in terms of hardware, the interfaces may be part of a so-called system ASIC, which includes various functions of the device. However, it is also possible that the interfaces are their own integrated circuits or at least partially consist of discrete components. In a software training, the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.
Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.Also of advantage is a computer program product or computer program with program code which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical memory and for carrying out, implementing and / or controlling the steps of the method according to one of the embodiments described above is used, especially when the program product or program is executed on a computer or a device.
Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
-
1 eine schematische Seitenansicht eines Fahrzeugs während einer erfindungsgemäßen bildbasierenden Objektidentifikation gemäß einem Ausführungsbeispiel; -
2 eine schematische Seitenansicht eines Fahrzeugs im Trainingsverfahren einer bildbasierenden Objektidentifikation gemäß einem Ausführungsbeispiel; -
3 eine schematische Seitenansicht eines Fahrzeugs im Anwendungsverfahren einer bildbasierenden Objektidentifikation gemäß einem Ausführungsbeispiel; -
4 eine Darstellung zur Erläuterung der Vorgehensweise eines Verfahrens zur bildbasierenden Objektidentifikation gemäß einem Ausführungsbeispiel; und -
5 ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zur bildbasierenden Objektidentifikation gemäß einem Ausführungsbeispiel.
-
1 a schematic side view of a vehicle during an image-based object identification according to the invention according to an embodiment; -
2 a schematic side view of a vehicle in the training method of an image-based object identification according to an embodiment; -
3 a schematic side view of a vehicle in the application method of an image-based object identification according to an embodiment; -
4 a representation for explaining the procedure of a method for image-based object identification according to an embodiment; and -
5 a flowchart of an embodiment of a method for image-based object identification according to an embodiment.
In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.In the following description of favorable embodiments of the present invention, the same or similar reference numerals are used for the elements shown in the various figures and similar acting, with a repeated description of these elements is omitted.
Bei dem Verfahren zur bildbasierenden Objektidentifikation für ein Fahrzeug
Nun werden die eingelesenen Bilddaten in Hilfsbilddaten umgerechnet. Die Hilfsbilddaten entsprechen hierbei dem Abbild der Umgebung des Fahrzeugs
Schließlich wird zumindest ein Klassifikator zur Identifikation des detektierten Objekts
Zusätzlich wird ein Fahrerassistenzsystem
Bei dem Verfahren zur bildbasierenden Objektidentifikation für ein Fahrzeug
Die Bildmerkmale werden in dreidimensionalen Daten eingelesen, die eine Umgebung des Fahrzeugs
Während einer Laufzeit des Systems wird jeder Bildpixel im dreidimensionalen Raum von der aktuellen Aufnahmeposition Position der Kamera
Je nach Anwendungsfall müssen mit dem hier vorgestellten Verfahren zur bildbasierenden Objektidentifikation keine neuen Bildbeispiele aufgenommen und die Objektidentifikation und/oder Klassifikation nicht neu trainiert oder gelernt werden.Depending on the application, no new image examples have to be taken with the image-based object identification method presented here, and the object identification and / or classification need not be re-trained or learned.
Für die Erkennung eines gewünschten Objekttyps, wie beispielsweise eines Fahrzeugs, Motorrads oder Fußgängers, werden für den jeweiligen Objekttyp eine Vielzahl an Bildbeispielen benötigt, die unterschiedlichste Ausprägungen des Objektes
Der Einsatz von Frontkameras im Fahrerassistenzbereich steigt stetig und umfasst insbesondere den PKW- und LKW-Bereich, wobei auch die Nachfrage für Straßenbahnen oder Züge steigt, die jedoch einen deutlich erhöhten Blickwinkel auf die Szene vor sich aufweisen. Trainierte Klassifikatoren, die mit Beispieldaten von Fahrzeugen, Fußgängern und Fahrradfahrern aus der typischen Einbauhöhe in PKWs, also etwa 1 Meter über der Fahrbahn
Die Grenze der Objektklassifikation ist beispielsweise erreicht, wenn sich die Proportionen durch eine veränderte Kameraposition so ändern, dass die Personen und/oder Objekte
Zunächst wird in dem Trainingsverfahren
In dem Anwendungsverfahren
Eine beabsichtigte Veränderung der Kameraanbauposition, beispielsweise eine Drehung und/oder Verschiebung der optischen Achse und/oder der vertikalen und/oder horizontalen Kameraposition, benötigt weder neue Bildbeispiele noch ein erneutes maschinelles Lernen und/oder Modelltraining von Klassifikatoren. Bereits auf zweidimensionale Daten trainierte Klassifikatoren können damit in Fahrzeugumgebungen zum Einsatz kommen, für die sie ursprünglich nicht vorgesehen waren und in denen sie normalerweise nicht die notwendige Güte erreichen würden. Über den Einsatz zusätzlicher entfernungsmessender Sensorik sollen diese Klassifikatoren über den vorgestellten Ansatz dennoch mit hoher Güte zum Einsatz kommen können.An intentional change in the camera mounting position, such as rotation and / or displacement of the optical axis and / or the vertical and / or horizontal camera position, requires neither new image examples nor a re-machine learning and / or model training of classifiers. Already trained on two-dimensional data classifiers can thus be used in vehicle environments for which they were not originally intended and in which they would not normally achieve the necessary quality. By using additional distance-measuring sensors, these classifiers should still be able to be used with high quality via the presented approach.
Grundsätzlich kann bei dem hier vorgestellten Verfahren zur bildbasierenden Objektidentifikation die Objektdetektionsrate geringer sein, da aufgrund der Koordinatendrehung und/oder Koordinatenverschiebung von der Aufnahmeposition im Vergleich zur ursprünglichen Auswerteposition Bildpixel fehlen oder verloren gehen können. Hier wäre denkbar, die detektierten Objekte zu Identifikationszwecken mit virtuellen Pixeln aufzufüllen.In principle, in the method for image-based object identification presented here, the object detection rate may be lower, since image pixels may be missing or lost due to the coordinate rotation and / or coordinate shift from the recording position in comparison to the original evaluation position. Here it would be conceivable to fill the detected objects with virtual pixels for identification purposes.
Wenn sich beispielsweise Bildpixel mit unterschiedlichen Entfernungen nach dem Verschieben in der gleichen zweidimensionalen Position befinden, wäre der weiter entfernte Bildpixel unsichtbar. Wenn der entferntere Bildpixel aber zum Beispiel noch halb sichtbar wäre, könnte diese Grauwertinformation in den vorderen Bildpixel einbezogen werden. Im Grunde wäre das neue Bild eine Neuabtastung eines dreidimensionalen Bildes entsprechend der Ansicht einer dreidimensionalen Szene an einem zweidimensionalen Monitor. Dabei wird für jeden zweidimensionalen Bildpunkt ermittelt, welche dreidimensionalen Bildpunkte sichtbar sind und welche Grauwerte dabei zugeordnet werden.For example, if image pixels at different distances are in the same two-dimensional position after being moved, the more distant image pixel would be invisible. For example, if the more distant image pixel were still half visible, that gray value information could be included in the front image pixel. Basically, the new image would be a resampling of a three-dimensional image corresponding to the view of a three-dimensional scene on a two-dimensional monitor. It is determined for each two-dimensional pixel, which three-dimensional pixels are visible and which gray values are assigned.
Kritischer kann das Ganze bei entstehenden Lücken werden, die mit der Umgebung interpoliert werden können, womit die fehlende Information jedoch nicht wieder hergestellt wird und beispielsweise ein Objektklassifikator an solchen Stellen tendenziell schlechter arbeitet. Sollten nach der Rotation und/oder Verschiebung die entstehenden Lücken an dem detektierten Objekt überhandnehmen, wird die Güte der Klassifikation entsprechend schlechter.The whole thing can become more critical in the event of gaps that can be interpolated with the environment, but the missing information is not restored and, for example, an object classifier tends to work worse in such places. If, after the rotation and / or displacement, the resulting gaps in the detected object become more prevalent, the quality of the classification becomes correspondingly worse.
Bestehende dreidimensionale Daten, also Grauwertinformationen an definierten Punkten im Raum, aus einer anderen Perspektive zu betrachten, wäre ein einzelner Berechnungsschritt. Für ein einzelnes Objekt könnte man im Voraus bereits durch eine Drehung des Rechtecks, das das Objekt umfasst, bestimmen, um wieviel sich die Fläche des umschreibenden Rechtecks verändert. Diese Flächenänderung wäre ein Hinweis darauf, wieviel Informationen zusammengestaucht werden, wobei Details verloren gingen, oder gestreckt werden sollten, wobei Grauwertinformationen aufgefüllt werden. Diese Informationen können in der Bestimmung der Detektionsrate und nachfolgenden Entscheidungsfindung, beispielsweise einem Systemeingriff, berücksichtigt werden.Existing three-dimensional data, ie gray value information at defined points in space, to be viewed from a different perspective would be a single calculation step. For a single object, you could already determine in advance by a rotation of the rectangle that encloses the object how much the area of the circumscribing rectangle changes. This area change would be an indication of how much information is being collapsed, with details being lost or stretched, filling in grayscale information. This information can be taken into account in the determination of the detection rate and subsequent decision making, for example a system intervention.
Eine Besonderheit ergibt sich bei Überdeckungen, bei denen aus einer erhöhten Perspektive heraus, beispielsweise wenn zwei Fahrzeuge hintereinander vor dem Ego-Fahrzeug zu sehen sind, die aber aus der niedrigeren Perspektive nicht getrennt sichtbar wären, sondern das entferntere Fahrzeug durch das Nähere verdeckt wird. Um dabei keine Informationen zu verschenken, wäre es erfindungsgemäß sinnvoll, zwei getrennte zweidimensionale Bilder zu erzeugen, die einmal das vordere Fahrzeug aus der niedrigeren Perspektive (entsprechend rotiert) zeigen und einmal nur das entferntere Fahrzeug (das Vordere wäre hier also unsichtbar).A peculiarity arises in overlaps, in which, from an elevated perspective, for example, when two vehicles can be seen one behind the other in front of the ego vehicle, but would not be visible separately from the lower perspective, but the distant vehicle is covered by the closer. In order not to give away any information, it would be useful according to the invention to generate two separate two-dimensional images, which once show the front vehicle from the lower perspective (correspondingly rotated) and only the more distant vehicle (the front would be invisible here).
Eine Hinderniserkennung und eine Bestimmung des Fahrschlauches sind Hauptthemen hinsichtlich des automatisierten Fahrens. Oftmals existiert hier nicht der Anspruch Personen als solche zu erkennen, sondern pauschal lediglich Hindernisse zu erkennen. Personen als solche zu erkennen hat jedoch den Vorteil, dass dabei Informationen über mögliche Bewegungsabläufe dieses Objektes verfügbar werden, wenn ein Objekt als Person klassifiziert wird. Generell ist ein Mensch zwar recht langsam, kann aber sehr abrupt seine Richtung und Geschwindigkeit ändern. Wenn man diese Information einbeziehen kann, bekommen als Personen klassifizierte Objekte am Straßenrand eine andere Bedeutung beispielsweise für die Bewertung möglicher Gefahrensituationen.An obstacle detection and a determination of the driving tube are major issues in terms of automated driving. Often there is no claim to recognize persons as such, but merely to recognize obstacles. However, recognizing persons as such has the advantage that information about possible movements of this object becomes available when an object is classified as a person. In general, a person is quite slow, but can change his direction and speed very abruptly. If one can include this information, objects classified as persons on the roadside get a different meaning, for example for the evaluation of possible dangerous situations.
Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.If an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017214973.6A DE102017214973A1 (en) | 2017-08-28 | 2017-08-28 | Method and apparatus for image based object identification for a vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017214973.6A DE102017214973A1 (en) | 2017-08-28 | 2017-08-28 | Method and apparatus for image based object identification for a vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102017214973A1 true DE102017214973A1 (en) | 2019-02-28 |
Family
ID=65321292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017214973.6A Pending DE102017214973A1 (en) | 2017-08-28 | 2017-08-28 | Method and apparatus for image based object identification for a vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102017214973A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021102301A1 (en) | 2021-02-02 | 2022-08-04 | Valeo Schalter Und Sensoren Gmbh | METHOD OF OPERATING A DRIVING ASSISTANCE SYSTEM, COMPUTER PROGRAM PRODUCT, DRIVING ASSISTANCE SYSTEM AND VEHICLE |
-
2017
- 2017-08-28 DE DE102017214973.6A patent/DE102017214973A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021102301A1 (en) | 2021-02-02 | 2022-08-04 | Valeo Schalter Und Sensoren Gmbh | METHOD OF OPERATING A DRIVING ASSISTANCE SYSTEM, COMPUTER PROGRAM PRODUCT, DRIVING ASSISTANCE SYSTEM AND VEHICLE |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009005505B4 (en) | Method and device for generating an image of the surroundings of a motor vehicle | |
EP3292510B1 (en) | Method and apparatus for detecting and assessing road reflections | |
EP3044727B1 (en) | Method and device for detecting objects from depth-resolved image data | |
DE102015223176A1 (en) | Method and device for determining occlusion areas in the vehicle environment of a vehicle | |
DE102017108254B4 (en) | All-round camera system for object recognition and tracking and method for equipping a vehicle with a panoramic camera system | |
DE102013205882A1 (en) | Method and device for guiding a vehicle around an object | |
DE102017107396A1 (en) | Test method and test device for driver assistance systems | |
DE102016100030A1 (en) | DEVICE FOR SAFE RIDING OF A VEHICLE | |
WO2013029722A2 (en) | Method for representing surroundings | |
EP2033165B1 (en) | Method for picking up a traffic space | |
DE102018212655A1 (en) | Detection of the intention to move a pedestrian from camera images | |
DE102016202594A1 (en) | Method and device for interpreting a vehicle environment of a vehicle and vehicle | |
EP3392111A1 (en) | Method and device for determining a visual deflection of a driver of a vehicle | |
DE102010042026B4 (en) | Method for generating an image of at least one object in the surroundings of a vehicle | |
DE102018100909A1 (en) | Method of reconstructing images of a scene taken by a multifocal camera system | |
DE102014008152A1 (en) | Method and device for augmented presentation of at least one additional information in at least one image of an environment | |
DE102016104730A1 (en) | Method for detecting an object along a road of a motor vehicle, computing device, driver assistance system and motor vehicle | |
DE102013012930A1 (en) | Method for determining a current distance and / or a current speed of a target object from a reference point in a camera image, camera system and motor vehicle | |
DE102006037600B4 (en) | Method for the resolution-dependent representation of the environment of a motor vehicle | |
WO2017198429A1 (en) | Ascertainment of vehicle environment data | |
DE102013021840A1 (en) | Method for generating an environment model of a motor vehicle, driver assistance system and motor vehicle | |
WO2020020654A1 (en) | Method for operating a driver assistance system having two detection devices | |
DE102020127278A1 (en) | Around-View Synthesis System and Process | |
EP1283406A2 (en) | Image processing apparatus for a vehicle and method for the same | |
DE102017214973A1 (en) | Method and apparatus for image based object identification for a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R016 | Response to examination communication |