DE102020111471A1 - Method and system for image recognition for an automated vehicle - Google Patents
Method and system for image recognition for an automated vehicle Download PDFInfo
- Publication number
- DE102020111471A1 DE102020111471A1 DE102020111471.0A DE102020111471A DE102020111471A1 DE 102020111471 A1 DE102020111471 A1 DE 102020111471A1 DE 102020111471 A DE102020111471 A DE 102020111471A DE 102020111471 A1 DE102020111471 A1 DE 102020111471A1
- Authority
- DE
- Germany
- Prior art keywords
- measured
- dimension
- vehicle
- reference object
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Traffic Control Systems (AREA)
Abstract
Die vorliegende Offenbarung betrifft ein Verfahren zur Bilderkennung für ein automatisiert fahrendes Fahrzeug, umfassend ein Erfassen von Bilddaten, wobei die Bilddaten ein Referenzobjekt und ein zu bemessendes Objekt umfassen; ein Ermitteln einer Standardabmessung des Referenzobjekts; und ein Ermitteln einer Abmessung des zu bemessenden Objekts basierend auf der Standardabmessung des Referenzobjekts.The present disclosure relates to a method for image recognition for an automated driving vehicle, comprising the acquisition of image data, the image data including a reference object and an object to be measured; determining a standard dimension of the reference object; and determining a dimension of the object to be measured based on the standard dimension of the reference object.
Description
Die vorliegende Offenbarung betrifft ein Verfahren zur Bilderkennung für ein automatisiert fahrendes Fahrzeug, ein Speichermedium zum Ausführen des Verfahrens, ein Bilderkennungssystem, ein Fahrassistenzsystem zum automatisierten Fahren eines Fahrzeugs mit einem solchen Bilderkennungssystem und ein Fahrzeug mit einem Fahrassistenzsystem zum automatisierten Fahren. Die vorliegende Offenbarung betrifft insbesondere eine effiziente Größenabschätzung von Objekten durch Dimensionsabgleich mit genormten Objekten in der Vorbeifahrt.The present disclosure relates to a method for image recognition for an automatically driving vehicle, a storage medium for carrying out the method, an image recognition system, a driver assistance system for automated driving of a vehicle with such an image recognition system and a vehicle with a driver assistance system for automated driving. The present disclosure relates in particular to an efficient size estimation of objects by means of dimensional comparison with standardized objects as they drive past.
Stand der TechnikState of the art
Fahrassistenzsysteme zum automatisierten Fahren gewinnen stetig an Bedeutung. Das automatisierte Fahren kann mit verschiedenen Automatisierungsgraden erfolgen. Beispielhafte Automatisierungsgrade sind ein assistiertes, teilautomatisiertes, hochautomatisiertes oder vollautomatisiertes Fahren. Diese Automatisierungsgrade wurden von der Bundesanstalt für Straßenwesen (BASt) definiert (siehe BASt-Publikation „Forschung kompakt“, Ausgabe 11/2012). Beispielsweise sind die Fahrzeuge mit Level 4 vollautonom im Stadtbetrieb unterwegs.Driver assistance systems for automated driving are becoming increasingly important. Automated driving can be done with different degrees of automation. Exemplary degrees of automation are assisted, partially automated, highly automated or fully automated driving. These degrees of automation were defined by the Federal Highway Research Institute (BASt) (see BASt publication “Research compact”,
Das Fahrassistenzsystem zum automatisierten Fahren verwendet Sensoren, die die Umgebung auf visueller Basis wahrnehmen, sowohl im für den Menschen sichtbaren als auch unsichtbaren Bereich. Die Sensoren können zum Beispiel eine Kamera, ein Radar und/oder ein LiDAR sein. Diese sind neben hochgenauen Karten die hauptsächlichen Signalquellen für Fahrassistenzsysteme zum automatisierten Fahren. Das Fahrzeugumfeld besteht in der Realität aus sehr vielen unterschiedlichen Objekten wie verschiedenen Fahrzeugtypen, Menschen und Tieren, statischen Objekten wie Standardtüren, -fenster, Mülltonnen, Verkehrsleitsystemen, natürlichen Objekten und Terrain. Daher ist es für das automatisierte Fahren essenziell, eine präzise Umgebungswahrnehmung sicherzustellen.The driver assistance system for automated driving uses sensors that perceive the environment on a visual basis, both in the area that is visible and invisible to humans. The sensors can be, for example, a camera, a radar and / or a LiDAR. In addition to high-precision maps, these are the main signal sources for driver assistance systems for automated driving. In reality, the vehicle environment consists of many different objects such as different vehicle types, people and animals, static objects such as standard doors and windows, garbage cans, traffic control systems, natural objects and terrain. It is therefore essential for automated driving to ensure precise perception of the environment.
Offenbarung der ErfindungDisclosure of the invention
Es ist eine Aufgabe der vorliegenden Offenbarung, ein Verfahren zur Bilderkennung für ein automatisiert fahrendes Fahrzeug, ein Speichermedium zum Ausführen des Verfahrens, ein Bilderkennungssystem, ein Fahrassistenzsystem zum automatisierten Fahren eines Fahrzeugs mit einem solchen Bilderkennungssystem und ein Fahrzeug mit einem Fahrassistenzsystem zum automatisierten Fahren anzugeben, die eine präzise Umgebungswahrnehmung ermöglichen. Insbesondere ist es eine Aufgabe der vorliegenden Offenbarung, eine Größe von Objekten zuverlässig abzuschätzen.It is an object of the present disclosure to specify a method for image recognition for an automatically driving vehicle, a storage medium for carrying out the method, an image recognition system, a driver assistance system for automated driving of a vehicle with such an image recognition system and a vehicle with a driver assistance system for automated driving, which enable a precise perception of the environment. In particular, it is an object of the present disclosure to reliably estimate a size of objects.
Diese Aufgabe wird durch den Gegenstand der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.This problem is solved by the subject matter of the independent claims. Advantageous refinements are given in the subclaims.
Gemäß einem unabhängigen Aspekt der vorliegenden Offenbarung ist ein Verfahren zur Bilderkennung für ein automatisiert fahrendes Fahrzeug, insbesondere ein Kraftfahrzeug, angegeben. Das Verfahren umfasst ein Erfassen von Bilddaten, wobei die Bilddaten ein Referenzobjekt und ein zu bemessendes Objekt umfassen; ein Ermitteln einer Standardabmessung des Referenzobjekts; und ein Ermitteln einer Abmessung des zu bemessenden Objekts basierend auf der Standardabmessung des Referenzobjekts.According to an independent aspect of the present disclosure, a method for image recognition for an automatically driving vehicle, in particular a motor vehicle, is specified. The method comprises acquiring image data, the image data comprising a reference object and an object to be measured; determining a standard dimension of the reference object; and determining a dimension of the object to be measured based on the standard dimension of the reference object.
Erfindungsgemäß werden Objekte basierend auf Standardabmessungen eines Referenzobjekts, das sich im selben Bild befindet, bemaßt. Dies geschieht insbesondere, indem das Objekt und das Referenzobjekt ins Verhältnis gesetzt werden. Damit kann anhand eines Größenvergleichs des Objekts mit Referenzobjekten beispielsweise eine Höhe einer Person durch einen Vergleich mit einem Standardmaß einer Standardtür, während die Person daran vorbeiläuft, abgeschätzt werden. Hierdurch kann eine effiziente Größenabschätzung und damit ein effizientes Berechnungssystem für das automatisierte Fahren bereitgestellt werden.According to the invention, objects are dimensioned based on standard dimensions of a reference object located in the same image. This is done in particular by putting the object and the reference object in relation to one another. In this way, on the basis of a size comparison of the object with reference objects, for example a height of a person can be estimated by comparison with a standard dimension of a standard door while the person walks past it. This makes it possible to provide an efficient size estimation and thus an efficient calculation system for automated driving.
Der Begriff „Objekt“, wie er im Rahmen der vorliegenden Offenbarung verwendet wird, umfasst dynamische und statische Objekte. Insbesondere umfasst der Begriff „Objekt“ Personen, Fahrzeuge, straßenbauliche Eigenschaften, etc. Die vorliegende Offenbarung ist jedoch nicht hierauf begrenzt und der Begriff „Objekt“ kann jedes Objekt sein, das im Rahmen des automatisierten Fahrens bemaßt werden kann oder soll.The term “object” as used in the context of the present disclosure includes dynamic and static objects. In particular, the term “object” includes people, vehicles, road construction properties, etc. However, the present disclosure is not limited to this and the term “object” can be any object that can or should be dimensioned in the context of automated driving.
Das Referenzobjekt ist ein Objekt, dessen Abmessungen bekannt sind. Insbesondere kann eine Datenbank mit einer Vielzahl von Referenzobjekten und deren zugehörigen Maßen vorhanden sein. In einigen Ausführungsformen kann die Datenbank eine Normdatenbank sein. Beispielsweise kann ein Zugriff auf weltweite Standardbemaßung aus länderspezifischen Normdatenbanken für Referenzobjekte erfolgen.The reference object is an object whose dimensions are known. In particular, there can be a database with a large number of reference objects and their associated dimensions. In some embodiments, the database can be an authority database. For example, global standard dimensions can be accessed from country-specific standard databases for reference objects.
Die Datenbank kann in einer zentralen Einheit (Backend/Server) enthalten sein, mit der das Fahrzeug in Kommunikationsverbindung steht. Alternativ kann die Datenbank im Fahrzeug enthalten sein.The database can be contained in a central unit (backend / server) with which the vehicle is in communication. Alternatively, the database can be contained in the vehicle.
Die Bilddaten können mittels einer Umgebungssensorik des Fahrzeugs aufgenommen werden. Die Umgebungssensorik kann zum Beispiel eine oder mehrere Kameras umfassen, die die Bilddaten bzw. entsprechende Bilder erfassen. Die Umgebungssensorik des Fahrzeugs kann dabei eingerichtet sein, um die Bilddaten während einer Vorbeifahrt am Objekt bzw. Referenzobjekt zu erfassen. In einigen Ausführungsformen kann die Umgebungssensorik die Bilddaten seitlich in Bezug auf eine Fahrtrichtung des Fahrzeugs erfassen. Anders gesagt kann die Blickrichtung im Wesentlichen senkrecht zur Fahrtrichtung sein und/oder senkrecht zu einer Objektaufstandsfläche liegen, um ein möglichst verzerrungsfreies Objekt erfassen zu können.The image data can be recorded by means of an environment sensor system of the vehicle. The environment sensor system can include, for example, one or more cameras that the Capture image data or corresponding images. The environmental sensors of the vehicle can be set up to capture the image data while driving past the object or reference object. In some embodiments, the environment sensor system can capture the image data laterally with respect to a direction of travel of the vehicle. In other words, the viewing direction can be essentially perpendicular to the direction of travel and / or perpendicular to an object contact area in order to be able to capture an object that is as distortion-free as possible.
Vorzugsweise sind die Bilddaten zweidimensionale Bilddaten. Dies ist im Vergleich zu einem dreidimensionalen Ausmessen z.B. mittels einer Punktewolke vorteilhaft, da keine umfangreiche Ausstattung verwendet werden muss, um zeitaufwändig eine große Anzahl von dreidimensionalen Datenpunkten auszuwerten.The image data are preferably two-dimensional image data. This is advantageous in comparison to a three-dimensional measurement, e.g. using a point cloud, since extensive equipment does not have to be used to evaluate a large number of three-dimensional data points in a time-consuming manner.
Vorzugsweise erfolgt das Ermitteln einer Abmessung des zu bemessenden Objekts unter Verwendung von projektiver Geometrie. Insbesondere kann eine Bildverarbeitung und Berechnung mittels projektiver Geometrie (z.B. bei homogenen Koordinaten) erfolgen, und falls nötig unter Berücksichtigung zusätzlicher Daten z.B. aus Abständen von Objekten zu einem bekannten Referenzobjekt. Hierdurch kann insbesondere mittels projektiver Geometrie aus zweidimensionalen Bilddaten eine effiziente Größenabschätzung stattfinden, und somit ein effizienteres Berechnungssystem für das automatisierte Fahren des Fahrzeugs bereitgestellt werden.A dimension of the object to be measured is preferably determined using projective geometry. In particular, image processing and calculation can be carried out using projective geometry (e.g. with homogeneous coordinates) and, if necessary, taking additional data into account, e.g. from distances between objects and a known reference object. In this way, an efficient size estimation can take place in particular by means of projective geometry from two-dimensional image data, and thus a more efficient calculation system can be provided for the automated driving of the vehicle.
Vorzugsweise umfasst das Ermitteln einer Abmessung des zu bemessenden Objekts weiter ein Bestimmen einer perspektivisch verzerrten Abmessung des zu bemessenden Objekts; und ein Entzerren der perspektivisch verzerrten Abmessung, um die Abmessung des zu bemessenden Objekts zu erhalten. Dies kann beispielsweise unter Verwendung der projektiven Geometrie erfolgen.Preferably, determining a dimension of the object to be measured further comprises determining a perspective distorted dimension of the object to be measured; and rectifying the perspective distorted dimension to obtain the dimension of the object to be measured. This can be done using projective geometry, for example.
Der Begriff „perspektivisch verzerrten Abmessung“ bezieht sich darauf, dass die Kamera des Fahrzeugs das Bild des Objekts und des Referenzobjekts aus einer bestimmten Perspektive aufnimmt, so dass das dreidimensionale Objekt bzw. Referenzobjekt im zweidimensionalen Bild verzerrt dargestellt ist. Ist die Kamera zum Beispiel angewinkelt (unterhalb der Horizontalen: Vogelperspektive; oberhalb der Horizontalen: Froschperspektive), so gibt die Perspektive das Objekt entweder größer (bzw. länger/höher/breiter) oder kleiner (bzw. kürzer/niedriger/enger) wieder. Durch das Entzerren mittels der projektiven Geometrie können die realen Abmessungen des Objekts bestimmt werden.The term “perspective distorted dimension” refers to the fact that the camera of the vehicle records the image of the object and the reference object from a certain perspective, so that the three-dimensional object or reference object is shown distorted in the two-dimensional image. For example, if the camera is angled (below the horizontal: bird's eye view; above the horizontal: frog's eye view), the perspective shows the object either larger (or longer / higher / wider) or smaller (or shorter / lower / narrower). By rectifying by means of the projective geometry, the real dimensions of the object can be determined.
Vorzugsweise werden Bilder im Wesentlichen direkt auf Höhe des Objekts und auf Höhe des Referenzobjekts aufgenommen, um eine Verzerrung um die Hochachse zu vermeiden. Images are preferably recorded essentially directly at the level of the object and at the level of the reference object in order to avoid distortion about the vertical axis.
Beispielsweise kann zuerst ein zweidimensionales Ausmessen (z.B. Längen- und/oder Breitenvergleich) des zu bemessenden Objekts und des Referenzobjekts aus einem perspektivisch verzerrt Kamerabild erfolgen. Die Berechnung der realen Objekthöhe („Entzerrung“) kann dann durch projektive Geometrie unter Hinzunahme der realen Referenzkenngröße aus der Datenbank erfolgen und/oder durch ein zweites Bild des Referenzobjekts abgeglichen werden, welches durch das Fahrzeug möglichst unverzerrt in Form eines 2D-Bildes aufgenommen wurde. Ein solches Referenzbild fällt nur zeitgleich mit dem Bild des zu vermessenden Objekts zusammen, wenn sich das Objekt direkt vor dem Referenzobjekt befindet und die Kamera optimal mit möglichst geringerer Verzerrung positioniert wird. In allen anderen Fällen können wenigstens zwei Bilder verwendet werden, in welchen das Objekt und das Referenzobjekt möglichst verzerrungsfrei aufgenommen werden.For example, a two-dimensional measurement (e.g. length and / or width comparison) of the object to be measured and the reference object can first be carried out from a perspective distorted camera image. The calculation of the real object height ("rectification") can then be carried out by projective geometry with the addition of the real reference parameter from the database and / or compared with a second image of the reference object, which was recorded by the vehicle as undistorted as possible in the form of a 2D image . Such a reference image only coincides with the image of the object to be measured if the object is located directly in front of the reference object and the camera is optimally positioned with the least possible distortion. In all other cases, at least two images can be used in which the object and the reference object are recorded as free of distortion as possible.
Vorzugsweise erfolgt das Entzerren der perspektivisch verzerrten Abmessung unter Verwendung wenigstens eines Parameters, der aus der Gruppe ausgewählt ist, die das folgende umfasst oder aus dem folgenden besteht:
- - einer perspektivisch verzerrten Abmessung des Referenzobjekts; und/oder
- - der perspektivisch verzerrten Abmessung des zu bemessenden Objekts; und/oder
- - der Standardabmessung des Referenzobjekts; und/oder
- - einem Winkel eines Bildsensors bzw. einer Kamera zu einer Horizontalen; und/oder
- - einem Abstand zwischen dem Bildsensor bzw. der Kamera und dem zu bemessenden Objekt; und/oder
- - einem kürzesten Abstand zwischen dem Bildsensor bzw. der Kamera und dem Referenzobj ekt.
- - a perspective distorted dimension of the reference object; and or
- - the perspective distorted dimension of the object to be measured; and or
- - the standard dimensions of the reference object; and or
- - An angle of an image sensor or a camera to a horizontal; and or
- a distance between the image sensor or the camera and the object to be measured; and or
- - A shortest distance between the image sensor or the camera and the reference object.
Vorzugsweise ist das zu bemessende Objekt eine Person, wobei das Ermitteln einer Abmessung des zu bemessenden Objekts weiter ein Ermitteln einer Körperhaltung der Person, insbesondere basierend auf einer Geschwindigkeit der Person, und ein Ermitteln einer realen Größe der Person unter Berücksichtigung der Körperhaltung umfasst. Die Höhe von Menschen und Tieren variiert mit ihrer Geschwindigkeit. Somit kann neben einer gemessenen Höhe z.B. der Ausfallschritt analysiert werden, um zum Beispiel die Größe einer Person im Ruhezustand zu ermitteln.The object to be measured is preferably a person, wherein determining a dimension of the object to be measured further comprises determining a posture of the person, in particular based on a speed of the person, and determining a real size of the person taking into account the posture. The height of humans and animals varies with their speed. Thus, in addition to a measured height, e.g. the lunge can be analyzed, for example to determine the height of a person at rest.
Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist ein Software (SW) Programm angegeben. Das SW Programm kann eingerichtet werden, um auf einem oder mehreren Prozessoren ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren zur Bilderkennung für ein automatisiert fahrendes Fahrzeug auszuführen.According to a further independent aspect of the present disclosure, a software (SW) program is specified. The SW program can be set up to be executed on one or more processors, and thereby to execute the method described in this document for image recognition for an automatically driving vehicle.
Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist ein Speichermedium angegeben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem oder mehreren Prozessoren ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren zur Bilderkennung für ein automatisiert fahrendes Fahrzeug auszuführen.According to a further independent aspect of the present disclosure, a storage medium is specified. The storage medium can comprise a SW program which is set up to be executed on one or more processors and thereby to execute the method described in this document for image recognition for an automatically driving vehicle.
Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist ein Bilderkennungssystem angegeben. Das Bilderkennungssystem umfasst einen oder mehrere Prozessoren, die eingerichtet sind, um dadurch das in diesem Dokument beschriebene Verfahren zur Bilderkennung für ein automatisiert fahrendes Fahrzeug, und insbesondere Kraftfahrzeug, auszuführen.According to a further independent aspect of the present disclosure, an image recognition system is specified. The image recognition system comprises one or more processors which are set up to thereby execute the method described in this document for image recognition for an automated vehicle, and in particular a motor vehicle.
Vorzugsweise ist das Bilderkennungssystem vollständig im Fahrzeug implementiert. Alternativ dazu ist das Bilderkennungssystem teilweise im Fahrzeug (insbesondere die Umgebungssensorik zum Erfassen der Bilddaten), und teilweise durch eine zentrale Einheit implementiert.The image recognition system is preferably implemented entirely in the vehicle. As an alternative to this, the image recognition system is partially implemented in the vehicle (in particular the environmental sensor system for capturing the image data) and partially implemented by a central unit.
Die zentrale Einheit kann ein Server, wie zum Beispiel ein Backend eines Fahrzeugerstellers sein, die/das mit dem Fahrzeug in Kommunikationsverbindung ist, sein. Die Kommunikationsverbindung zwischen dem Fahrzeug und der zentralen Einheit kann über ein mobiles Netzwerk, wie zum Beispiel ein LTE-Netzwerk oder 5G-Netzwerk erfolgen, ist jedoch nicht hierauf begrenzt.The central unit can be a server, for example a backend of a vehicle manufacturer, which is in communication with the vehicle. The communication link between the vehicle and the central unit can take place via a mobile network, such as an LTE network or 5G network, but is not limited to this.
In einigen Ausführungsformen kann die zentrale Einheit zumindest einen Teil der Funktionalitäten des erfindungsgemäßen Bilderkennungssystems bereitstellen. Insbesondere kann die zentrale Einheit die Datenbank mit der Vielzahl von Referenzobjekten und deren zugehörigen Maßen umfassen.In some embodiments, the central unit can provide at least some of the functionalities of the image recognition system according to the invention. In particular, the central unit can include the database with the large number of reference objects and their associated dimensions.
Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist ein Fahrassistenzsystem zum automatisierten Fahren eines Fahrzeugs angegeben. Das Fahrassistenzsystem umfasst das in diesem Dokument beschriebene Bilderkennungssystem für ein Fahrzeug.According to a further independent aspect of the present disclosure, a driver assistance system for automated driving of a vehicle is specified. The driver assistance system comprises the image recognition system for a vehicle described in this document.
Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist ein Fahrzeug, insbesondere ein Kraftfahrzeug, angegeben. Das Fahrzeug umfasst das Fahrassistenzsystem zum automatisierten Fahren eines Fahrzeugs gemäß den Ausführungsformen der vorliegenden Offenbarung.According to a further independent aspect of the present disclosure, a vehicle, in particular a motor vehicle, is specified. The vehicle comprises the driver assistance system for automated driving of a vehicle according to the embodiments of the present disclosure.
Der Begriff Fahrzeug umfasst PKW, LKW, Busse, Wohnmobile, Krafträder, etc., die der Beförderung von Personen, Gütern, etc. dienen. Insbesondere umfasst der Begriff Kraftfahrzeuge zur Personenbeförderung.The term vehicle includes cars, trucks, buses, mobile homes, motorcycles, etc., which are used to transport people, goods, etc. In particular, the term includes motor vehicles for passenger transport.
Vorzugsweise umfasst das Fahrzeug eine Umgebungssensorik, die eingerichtet ist, um Umfelddaten zu erfassen. Vorzugsweise umfasst die Umgebungssensorik wenigstens ein LiDAR-System und/oder wenigstens ein Radar-System und/oder wenigstens eine Kamera und/oder wenigstens ein Ultraschall-System. Die Umgebungssensorik kann die Umfelddaten (auch als „Umgebungsdaten“ bezeichnet) bereitstellen, die einen Umgebungsbereich des Fahrzeugs abbilden.The vehicle preferably includes an environment sensor system which is set up to record environment data. The environmental sensor system preferably comprises at least one LiDAR system and / or at least one radar system and / or at least one camera and / or at least one ultrasound system. The environment sensor system can provide the environment data (also referred to as “environment data”), which depict an area around the vehicle.
Beim automatisierten Fahren erfolgt die Längs- und/oder Querführung des Fahrzeugs automatisch. Das Fahrassistenzsystem übernimmt also die Fahrzeugführung. Hierzu steuert das Fahrassistenzsystem den Antrieb, das Getriebe, die Betriebsbremse und die Lenkung. Zur Planung und Durchführung des automatisierten Fahrens werden Umfeldinformationen der Umfeldsensorik, die das Fahrzeugumfeld beobachtet, vom Fahrerassistenzsystem entgegengenommen.With automated driving, the longitudinal and / or lateral guidance of the vehicle takes place automatically. The driver assistance system therefore takes over the control of the vehicle. For this purpose, the driver assistance system controls the drive, the transmission, the service brake and the steering. To plan and carry out automated driving, information on the surroundings from the surroundings sensors that monitor the surroundings of the vehicle is received by the driver assistance system.
Unter dem Begriff „automatisiertes Fahren“ kann im Rahmen des Dokuments ein Fahren mit automatisierter Längs- oder Querführung oder ein autonomes Fahren mit automatisierter Längs- und Querführung verstanden werden. Bei dem automatisierten Fahren kann es sich beispielsweise um ein zeitlich längeres Fahren auf der Autobahn oder um ein zeitlich begrenztes Fahren im Rahmen des Einparkens oder Rangierens handeln. Der Begriff „automatisiertes Fahren“ umfasst ein automatisiertes Fahren mit einem beliebigen Automatisierungsgrad. Beispielhafte Automatisierungsgrade sind ein assistiertes, teilautomatisiertes, hochautomatisiertes oder vollautomatisiertes Fahren. Diese Automatisierungsgrade wurden von der Bundesanstalt für Straßenwesen (BASt) definiert (siehe BASt-Publikation „Forschung kompakt“, Ausgabe 11/2012).In the context of the document, the term “automated driving” can be understood to mean driving with automated longitudinal or lateral guidance or autonomous driving with automated longitudinal and lateral guidance. The automated driving can be, for example, driving on the motorway for a longer period of time or driving for a limited time as part of parking or maneuvering. The term “automated driving” includes automated driving with any degree of automation. Exemplary degrees of automation are assisted, partially automated, highly automated or fully automated driving. These degrees of automation were defined by the Federal Highway Research Institute (BASt) (see BASt publication “Research compact”,
Beim assistierten Fahren führt der Fahrer dauerhaft die Längs- oder Querführung aus, während das System die jeweils andere Funktion in gewissen Grenzen übernimmt. Beim teilautomatisierten Fahren (TAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum und/oder in spezifischen Situationen, wobei der Fahrer das System wie beim assistierten Fahren dauerhaft überwachen muss. Beim hochautomatisierten Fahren (HAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum, ohne dass der Fahrer das System dauerhaft überwachen muss; der Fahrer muss aber in einer gewissen Zeit in der Lage sein, die Fahrzeugführung zu übernehmen. Beim vollautomatisierten Fahren (VAF) kann das System für einen spezifischen Anwendungsfall das Fahren in allen Situationen automatisch bewältigen; für diesen Anwendungsfall ist kein Fahrer mehr erforderlich.With assisted driving, the driver continuously performs the longitudinal or lateral guidance, while the system takes on the other function within certain limits. With partially automated driving (TAF) the system takes over the longitudinal and lateral guidance for a certain period of time and / or in specific situations, whereby the driver has to constantly monitor the system as with assisted driving. With highly automated driving (HAF), the system takes over the longitudinal and lateral guidance for a certain period of time without the driver having to permanently monitor the system; however, the driver must be able to take control of the vehicle within a certain period of time. With fully automated driving (VAF), the system can automatically cope with driving in all situations for a specific application; a driver is no longer required for this application.
Die vorstehend genannten vier Automatisierungsgrade entsprechen den SAE-Level 1 bis 4 der Norm SAE J3016 (SAE - Society of Automotive Engineering). Beispielsweise entspricht das hochautomatisierte Fahren (HAF) Level 3 der Norm SAE J3016. Ferner ist in der SAE J3016 noch der SAE-Level 5 als höchster Automatisierungsgrad vorgesehen, der in der Definition der BASt nicht enthalten ist. Der SAE-Level 5 entspricht einem fahrerlosen Fahren, bei dem das System während der ganzen Fahrt alle Situationen wie ein menschlicher Fahrer automatisch bewältigen kann; ein Fahrer ist generell nicht mehr erforderlich.The four degrees of automation mentioned above correspond to SAE levels 1 to 4 of the SAE J3016 standard (SAE - Society of Automotive Engineering). For example, highly automated driving (HAF) Level 3 corresponds to the SAE J3016 standard. In addition, SAE J3016 provides SAE level 5 as the highest degree of automation, which is not included in the definition of BASt. SAE level 5 corresponds to driverless driving, in which the system can automatically cope with all situations like a human driver during the entire journey; a driver is generally no longer required.
FigurenlisteFigure list
Ausführungsbeispiele der Offenbarung sind in den Figuren dargestellt und werden im Folgenden näher beschrieben. Es zeigen:
-
1 ein Flussdiagramm eines Verfahrens zur Bilderkennung für ein automatisiert fahrendes Fahrzeug gemäß Ausführungsformen der vorliegenden Offenbarung, -
2A eine Draufsicht auf ein zu bemessendes Objekt und ein Referenzobjekt gemäß Ausführungsformen der vorliegenden Offenbarung, -
2B eine Vogelperspektive eines zu bemessenden Objekts und eines Referenzobjekts gemäß Ausführungsformen der vorliegenden Offenbarung, -
2C eine Seitenansicht eines zu bemessenden Objekts und eines Referenzobjekts gemäß Ausführungsformen der vorliegenden Offenbarung, -
3 schematisch eine Körperhaltung einer Person und ihren Einfluss auf eine gemessene Höhe der Person gemäß Ausführungsformen der vorliegenden Offenbarung, und -
4 schematisch ein Fahrassistenzsystem zum automatisierten Fahren gemäß Ausführungsformen der vorliegenden Offenbarung.
-
1 a flowchart of a method for image recognition for an automated driving vehicle according to embodiments of the present disclosure, -
2A a top view of an object to be measured and a reference object according to embodiments of the present disclosure, -
2 B a bird's eye view of an object to be measured and a reference object according to embodiments of the present disclosure, -
2C a side view of an object to be measured and a reference object according to embodiments of the present disclosure, -
3 schematically a posture of a person and its influence on a measured height of the person according to embodiments of the present disclosure, and -
4th schematically a driver assistance system for automated driving according to embodiments of the present disclosure.
Ausführungsformen der OffenbarungEmbodiments of the disclosure
Im Folgenden werden, sofern nicht anders vermerkt, für gleiche und gleichwirkende Elemente gleiche Bezugszeichen verwendet.Unless otherwise noted, the same reference symbols are used below for elements that are the same and have the same effect.
Das Verfahren
In einigen Ausführungsformen können die Bilddaten ein einziges Bild darstellen, oder die Bilddaten können separaten Bildern jeweils möglichst senkrecht zur aufgespannten Objektoberfläche (möglichst verzerrungsfrei) entsprechen.In some embodiments, the image data can represent a single image, or the image data can correspond to separate images in each case as perpendicular as possible to the spanned object surface (as free of distortion as possible).
Ergänzend oder alternativ kann auch die Ermittlung der Standardabmessung unterschiedlich erfolgen. In einem Beispiel können die erfassten Bilddaten direkt ausgemessen werden, um die Standardabmessungen zu erhalten. In einem weiteren Beispiel können genormten Standardabmessungen z.B. von Datenservern abgerufen werden.In addition or as an alternative, the standard dimensions can also be determined in different ways. In one example, the captured image data can be measured directly to obtain the standard dimensions. In a further example, standardized dimensions can be called up e.g. from data servers.
Im Allgemeinen sind das dreidimensionale Objekt und das dreidimensionale Referenzobjekt im zweidimensionalen Bild verzerrt dargestellt. Ist die Kamera zum Beispiel angewinkelt (unterhalb der Horizontalen: Vogelperspektive; oberhalb der Horizontalen: Froschperspektive), so gibt die Perspektive das Objekt entweder größer (bzw. länger/höher/breiter) oder kleiner (bzw. kürzer/niedriger/enger) wieder. Durch ein Entzerren mittels projektiver Geometrie können die realen Abmessungen des Objekts bestimmt werden.In general, the three-dimensional object and the three-dimensional reference object are shown distorted in the two-dimensional image. For example, if the camera is angled (below the horizontal: bird's eye view; above the horizontal: frog's eye view), the perspective shows the object either larger (or longer / higher / wider) or smaller (or shorter / lower / narrower). The real dimensions of the object can be determined by rectifying using projective geometry.
Beispielsweise kann zuerst ein zweidimensionales Ausmessen (z.B. Längen- und/oder Breitenvergleich) des zu bemessenden Objekts und des Referenzobjekts aus einem perspektivisch verzerrt Kamerabild erfolgen. Die Berechnung der realen Objekthöhe („Entzerrung“) kann dann durch projektive Geometrie unter Hinzunahme der realen Referenzkenngröße aus der Datenbank erfolgen. Dies im Folgenden im Detail unter Bezugnahme auf die
In diesem Beispiel ist das zu bemessende Objekt
Die Kamera
Die vorliegende Offenbarung ist jedoch nicht auf die senkrechte Blickrichtung
Zuerst werden das Objekt
Das Objekt
Die Abstände können mittels der Umgebungssensorik des Fahrzeugs
Anschließend werden die Bilddaten ausgewertet. Dabei nimmt die Kamera
Die tatsächliche Objekthöhe
Die Höhe von Menschen und Tieren variiert mit ihrer Geschwindigkeit. Somit kann neben einer gemessenen Höhe z.B. der Ausfallschritt analysiert werden, um zum Beispiel die Größe einer Person im Ruhezustand zu ermitteln. Im Beispiel der
Ergänzend oder alternativ kann mittels der Umgebungssensorik auf eine Geschwindigkeit der Person geschlossen werden und eine damit verbundene Personenhöhe aus der Datenbank verknüpft werden. Aus der Verknüpfung kann dann wiederum auf eine Person im Ruhezustand geschlossen werden.Additionally or alternatively, a speed of the person can be deduced by means of the environmental sensor system and an associated person height can be linked from the database. A person in the idle state can then in turn be inferred from the link.
Beim automatisierten Fahren erfolgt die Längs- und Querführung des Fahrzeugs
Zur Planung und Durchführung des automatisierten Fahrens werden Umfeldinformationen einer Umfeldsensorik, die das Fahrzeugumfeld beobachtet, vom Fahrerassistenzsystem
Die Kameras können die Bilddaten bzw. entsprechende Bilder erfassen, die gemäß den Ausführungsformen der vorliegenden Offenbarung zur Bemaßung von Objekten verwendet werden. Die Kamera des Fahrzeugs kann dabei eingerichtet sein, um die Bilddaten während einer Vorbeifahrt am Objekt bzw. Referenzobjekt zu erfassen. In einigen Ausführungsformen kann die Umgebungssensorik die Bilddaten seitlich in Bezug auf eine Fahrtrichtung des Fahrzeugs erfassen.The cameras can capture the image data or corresponding images that are used for dimensioning objects in accordance with the embodiments of the present disclosure. The camera of the vehicle can be set up to capture the image data while driving past the object or reference object. In some embodiments, the environment sensor system can capture the image data laterally with respect to a direction of travel of the vehicle.
Erfindungsgemäß werden Objekte basierend auf Standardabmessungen eines Referenzobjekts, das sich im selben Bild oder in sequenziell aufgenommenen Bildern befindet, bemaßt (wenn sich keine Überlappung von Referenz- und Messobjekt ermöglicht, dann können zwei Bilder verwendet werden, d.h. es erfolgt eine Ermittlung aus zwei Bildern, also einem Bild für das Messobj ekt und einem für das Referenzobj ekt). Dies geschieht insbesondere, indem das Objekt und das Referenzobjekt ins Verhältnis gesetzt werden. Damit kann anhand eines Größenvergleichs des Objekts mit Referenzobjekten beispielsweise eine Höhe einer Person durch einen Vergleich mit einem Standardmaß einer Standardtür, während die Person daran vorbeiläuft, abgeschätzt werden. Hierdurch kann eine effiziente Größenabschätzung und damit ein effizientes Berechnungssystem für das automatisierte Fahren bereitgestellt werden.According to the invention, objects are dimensioned based on standard dimensions of a reference object that is located in the same image or in sequentially recorded images (if it is not possible for the reference and measurement object to overlap, then two images can be used, ie a determination is made from two images, i.e. one image for the measurement object and one for the reference object). This is done in particular by setting the object and the reference object in relation to one another. In this way, on the basis of a size comparison of the object with reference objects, for example a height of a person can be estimated by comparison with a standard dimension of a standard door while the person walks past it. This makes it possible to provide an efficient size estimation and thus an efficient calculation system for automated driving.
Obwohl die Erfindung im Detail durch bevorzugte Ausführungsbeispiele näher illustriert und erläutert wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Es ist daher klar, dass eine Vielzahl von Variationsmöglichkeiten existiert. Es ist ebenfalls klar, dass beispielhaft genannte Ausführungsformen wirklich nur Beispiele darstellen, die nicht in irgendeiner Weise als Begrenzung etwa des Schutzbereichs, der Anwendungsmöglichkeiten oder der Konfiguration der Erfindung aufzufassen sind. Vielmehr versetzen die vorhergehende Beschreibung und die Figurenbeschreibung den Fachmann in die Lage, die beispielhaften Ausführungsformen konkret umzusetzen, wobei der Fachmann in Kenntnis des offenbarten Erfindungsgedankens vielfältige Änderungen beispielsweise hinsichtlich der Funktion oder der Anordnung einzelner, in einer beispielhaften Ausführungsform genannter Elemente vornehmen kann, ohne den Schutzbereich zu verlassen, der durch die Ansprüche und deren rechtliche Entsprechungen, wie etwa weitergehenden Erläuterungen in der Beschreibung, definiert wird.Although the invention has been illustrated and explained in more detail by preferred exemplary embodiments, the invention is not restricted by the disclosed examples and other variations can be derived therefrom by the person skilled in the art without departing from the scope of protection of the invention. It is therefore clear that there is a multitude of possible variations. It is also clear that embodiments cited by way of example really only represent examples that are not to be interpreted in any way as a limitation, for example, of the scope of protection, the possible applications or the configuration of the invention. Rather, the preceding description and the description of the figures enable the person skilled in the art to specifically implement the exemplary embodiments, whereby the person skilled in the art, with knowledge of the disclosed inventive concept, can make various changes, for example with regard to the function or the arrangement of individual elements mentioned in an exemplary embodiment, without the To leave the scope of protection that is defined by the claims and their legal equivalents, such as further explanations in the description.
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020111471.0A DE102020111471A1 (en) | 2020-04-27 | 2020-04-27 | Method and system for image recognition for an automated vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020111471.0A DE102020111471A1 (en) | 2020-04-27 | 2020-04-27 | Method and system for image recognition for an automated vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020111471A1 true DE102020111471A1 (en) | 2021-10-28 |
Family
ID=78260940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020111471.0A Pending DE102020111471A1 (en) | 2020-04-27 | 2020-04-27 | Method and system for image recognition for an automated vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020111471A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020115306A1 (en) | 2020-06-09 | 2021-12-09 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for measuring the distance between a vehicle and another traffic object |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011011870A1 (en) | 2010-02-23 | 2011-08-25 | Conti Temic microelectronic GmbH, 90411 | Method for detecting, classifying, tracking and predicating pedestrians in environment of motor car for implementing assistance function in e.g. driver assistance system utilized for protecting pedestrian, involves detecting components |
DE102013207906A1 (en) | 2013-04-30 | 2014-10-30 | Bayerische Motoren Werke Aktiengesellschaft | Guided vehicle positioning for inductive charging with the help of a vehicle camera |
DE102015200436A1 (en) | 2015-01-14 | 2016-07-14 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for reducing false classifications in object detection |
DE102015112289A1 (en) | 2015-07-28 | 2017-02-02 | Valeo Schalter Und Sensoren Gmbh | Method for identifying an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle |
DE102018109371A1 (en) | 2017-04-20 | 2018-10-25 | GM Global Technology Operations LLC | CALIBRATION VALIDATION FOR THE OPERATION OF AUTONOMOUS VEHICLES |
-
2020
- 2020-04-27 DE DE102020111471.0A patent/DE102020111471A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011011870A1 (en) | 2010-02-23 | 2011-08-25 | Conti Temic microelectronic GmbH, 90411 | Method for detecting, classifying, tracking and predicating pedestrians in environment of motor car for implementing assistance function in e.g. driver assistance system utilized for protecting pedestrian, involves detecting components |
DE102013207906A1 (en) | 2013-04-30 | 2014-10-30 | Bayerische Motoren Werke Aktiengesellschaft | Guided vehicle positioning for inductive charging with the help of a vehicle camera |
DE102015200436A1 (en) | 2015-01-14 | 2016-07-14 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for reducing false classifications in object detection |
DE102015112289A1 (en) | 2015-07-28 | 2017-02-02 | Valeo Schalter Und Sensoren Gmbh | Method for identifying an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle |
DE102018109371A1 (en) | 2017-04-20 | 2018-10-25 | GM Global Technology Operations LLC | CALIBRATION VALIDATION FOR THE OPERATION OF AUTONOMOUS VEHICLES |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020115306A1 (en) | 2020-06-09 | 2021-12-09 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for measuring the distance between a vehicle and another traffic object |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102012024874B4 (en) | Method and device for predicatively determining a parameter value of a vehicle passable surface | |
WO2021043507A1 (en) | Lateral control of a vehicle by means of environment data detected from other vehicles | |
EP3455785B1 (en) | Method for traffic sign detection | |
DE102013205882A1 (en) | Method and device for guiding a vehicle around an object | |
DE102015203016A1 (en) | Method and device for optical self-localization of a motor vehicle in an environment | |
DE102016223422A1 (en) | Method for automatically determining extrinsic parameters of a camera of a vehicle | |
DE102018214510A1 (en) | Parking ticket generation on the street | |
DE102018122374B4 (en) | Method for determining a free space surrounding a motor vehicle, computer program product, free space determination device and motor vehicle | |
DE102020100022A1 (en) | POSITION DETERMINATION TECHNOLOGY | |
DE102016014712B4 (en) | Vehicle and method for outputting information to a vehicle environment | |
DE102015116542A1 (en) | Method for determining a parking area for parking a motor vehicle, driver assistance system and motor vehicle | |
WO2017178232A1 (en) | Method for operating a driver assistance system of a motor vehicle, computing device, driver assistance system, and motor vehicle | |
DE102018213378B4 (en) | Driver assistance system for a vehicle, vehicle with the same and driver assistance method for a vehicle | |
DE102017123226A1 (en) | A method of determining a critical altitude of a forward link for a vehicle comprising a towing vehicle and a trailer | |
DE102020111471A1 (en) | Method and system for image recognition for an automated vehicle | |
WO2018059735A1 (en) | Method for the self-location of a vehicle | |
EP1944212A1 (en) | Method and device for recognising potentially dangerous objects for a vehicle | |
DE3541969C2 (en) | Device for measuring lateral deviation (vertical distance between vehicle and target trajectory) and relative yaw angle (angle between vehicle longitudinal axis and tangent to target trajectory) of a vehicle | |
DE102020123808A1 (en) | Method and system for acquiring environmental data to ensure environmental recognition | |
DE102004047122A1 (en) | Sensor and guidance system for road vehicle has four different types of sensor in front of vehicle, building up picture of environment in front of vehicle, including IR and video sensors | |
DE102019120440A1 (en) | Method and system for the automated creation of object markings for use in a driver assistance system of a vehicle | |
DE102017103154A1 (en) | Method for generating a digital environment map of an environment of a motor vehicle taking into account a free space, computing device, driver assistance system and motor vehicle | |
DE102020117628A1 (en) | Driver assistance system and driver assistance method for automated driving of a vehicle | |
DE102018220803A1 (en) | Precise tracking of vehicles | |
DE102022211766A1 (en) | Method for generating environmental information, control device, vehicle and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |