DE102020111471A1 - Method and system for image recognition for an automated vehicle - Google Patents

Method and system for image recognition for an automated vehicle Download PDF

Info

Publication number
DE102020111471A1
DE102020111471A1 DE102020111471.0A DE102020111471A DE102020111471A1 DE 102020111471 A1 DE102020111471 A1 DE 102020111471A1 DE 102020111471 A DE102020111471 A DE 102020111471A DE 102020111471 A1 DE102020111471 A1 DE 102020111471A1
Authority
DE
Germany
Prior art keywords
measured
dimension
vehicle
reference object
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020111471.0A
Other languages
German (de)
Inventor
Daniel Liebau
Claudia Liebau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102020111471.0A priority Critical patent/DE102020111471A1/en
Publication of DE102020111471A1 publication Critical patent/DE102020111471A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Offenbarung betrifft ein Verfahren zur Bilderkennung für ein automatisiert fahrendes Fahrzeug, umfassend ein Erfassen von Bilddaten, wobei die Bilddaten ein Referenzobjekt und ein zu bemessendes Objekt umfassen; ein Ermitteln einer Standardabmessung des Referenzobjekts; und ein Ermitteln einer Abmessung des zu bemessenden Objekts basierend auf der Standardabmessung des Referenzobjekts.The present disclosure relates to a method for image recognition for an automated driving vehicle, comprising the acquisition of image data, the image data including a reference object and an object to be measured; determining a standard dimension of the reference object; and determining a dimension of the object to be measured based on the standard dimension of the reference object.

Description

Die vorliegende Offenbarung betrifft ein Verfahren zur Bilderkennung für ein automatisiert fahrendes Fahrzeug, ein Speichermedium zum Ausführen des Verfahrens, ein Bilderkennungssystem, ein Fahrassistenzsystem zum automatisierten Fahren eines Fahrzeugs mit einem solchen Bilderkennungssystem und ein Fahrzeug mit einem Fahrassistenzsystem zum automatisierten Fahren. Die vorliegende Offenbarung betrifft insbesondere eine effiziente Größenabschätzung von Objekten durch Dimensionsabgleich mit genormten Objekten in der Vorbeifahrt.The present disclosure relates to a method for image recognition for an automatically driving vehicle, a storage medium for carrying out the method, an image recognition system, a driver assistance system for automated driving of a vehicle with such an image recognition system and a vehicle with a driver assistance system for automated driving. The present disclosure relates in particular to an efficient size estimation of objects by means of dimensional comparison with standardized objects as they drive past.

Stand der TechnikState of the art

Fahrassistenzsysteme zum automatisierten Fahren gewinnen stetig an Bedeutung. Das automatisierte Fahren kann mit verschiedenen Automatisierungsgraden erfolgen. Beispielhafte Automatisierungsgrade sind ein assistiertes, teilautomatisiertes, hochautomatisiertes oder vollautomatisiertes Fahren. Diese Automatisierungsgrade wurden von der Bundesanstalt für Straßenwesen (BASt) definiert (siehe BASt-Publikation „Forschung kompakt“, Ausgabe 11/2012). Beispielsweise sind die Fahrzeuge mit Level 4 vollautonom im Stadtbetrieb unterwegs.Driver assistance systems for automated driving are becoming increasingly important. Automated driving can be done with different degrees of automation. Exemplary degrees of automation are assisted, partially automated, highly automated or fully automated driving. These degrees of automation were defined by the Federal Highway Research Institute (BASt) (see BASt publication “Research compact”, edition 11/2012). For example, the vehicles with level 4 are fully autonomous in city operation.

Das Fahrassistenzsystem zum automatisierten Fahren verwendet Sensoren, die die Umgebung auf visueller Basis wahrnehmen, sowohl im für den Menschen sichtbaren als auch unsichtbaren Bereich. Die Sensoren können zum Beispiel eine Kamera, ein Radar und/oder ein LiDAR sein. Diese sind neben hochgenauen Karten die hauptsächlichen Signalquellen für Fahrassistenzsysteme zum automatisierten Fahren. Das Fahrzeugumfeld besteht in der Realität aus sehr vielen unterschiedlichen Objekten wie verschiedenen Fahrzeugtypen, Menschen und Tieren, statischen Objekten wie Standardtüren, -fenster, Mülltonnen, Verkehrsleitsystemen, natürlichen Objekten und Terrain. Daher ist es für das automatisierte Fahren essenziell, eine präzise Umgebungswahrnehmung sicherzustellen.The driver assistance system for automated driving uses sensors that perceive the environment on a visual basis, both in the area that is visible and invisible to humans. The sensors can be, for example, a camera, a radar and / or a LiDAR. In addition to high-precision maps, these are the main signal sources for driver assistance systems for automated driving. In reality, the vehicle environment consists of many different objects such as different vehicle types, people and animals, static objects such as standard doors and windows, garbage cans, traffic control systems, natural objects and terrain. It is therefore essential for automated driving to ensure precise perception of the environment.

Offenbarung der ErfindungDisclosure of the invention

Es ist eine Aufgabe der vorliegenden Offenbarung, ein Verfahren zur Bilderkennung für ein automatisiert fahrendes Fahrzeug, ein Speichermedium zum Ausführen des Verfahrens, ein Bilderkennungssystem, ein Fahrassistenzsystem zum automatisierten Fahren eines Fahrzeugs mit einem solchen Bilderkennungssystem und ein Fahrzeug mit einem Fahrassistenzsystem zum automatisierten Fahren anzugeben, die eine präzise Umgebungswahrnehmung ermöglichen. Insbesondere ist es eine Aufgabe der vorliegenden Offenbarung, eine Größe von Objekten zuverlässig abzuschätzen.It is an object of the present disclosure to specify a method for image recognition for an automatically driving vehicle, a storage medium for carrying out the method, an image recognition system, a driver assistance system for automated driving of a vehicle with such an image recognition system and a vehicle with a driver assistance system for automated driving, which enable a precise perception of the environment. In particular, it is an object of the present disclosure to reliably estimate a size of objects.

Diese Aufgabe wird durch den Gegenstand der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.This problem is solved by the subject matter of the independent claims. Advantageous refinements are given in the subclaims.

Gemäß einem unabhängigen Aspekt der vorliegenden Offenbarung ist ein Verfahren zur Bilderkennung für ein automatisiert fahrendes Fahrzeug, insbesondere ein Kraftfahrzeug, angegeben. Das Verfahren umfasst ein Erfassen von Bilddaten, wobei die Bilddaten ein Referenzobjekt und ein zu bemessendes Objekt umfassen; ein Ermitteln einer Standardabmessung des Referenzobjekts; und ein Ermitteln einer Abmessung des zu bemessenden Objekts basierend auf der Standardabmessung des Referenzobjekts.According to an independent aspect of the present disclosure, a method for image recognition for an automatically driving vehicle, in particular a motor vehicle, is specified. The method comprises acquiring image data, the image data comprising a reference object and an object to be measured; determining a standard dimension of the reference object; and determining a dimension of the object to be measured based on the standard dimension of the reference object.

Erfindungsgemäß werden Objekte basierend auf Standardabmessungen eines Referenzobjekts, das sich im selben Bild befindet, bemaßt. Dies geschieht insbesondere, indem das Objekt und das Referenzobjekt ins Verhältnis gesetzt werden. Damit kann anhand eines Größenvergleichs des Objekts mit Referenzobjekten beispielsweise eine Höhe einer Person durch einen Vergleich mit einem Standardmaß einer Standardtür, während die Person daran vorbeiläuft, abgeschätzt werden. Hierdurch kann eine effiziente Größenabschätzung und damit ein effizientes Berechnungssystem für das automatisierte Fahren bereitgestellt werden.According to the invention, objects are dimensioned based on standard dimensions of a reference object located in the same image. This is done in particular by putting the object and the reference object in relation to one another. In this way, on the basis of a size comparison of the object with reference objects, for example a height of a person can be estimated by comparison with a standard dimension of a standard door while the person walks past it. This makes it possible to provide an efficient size estimation and thus an efficient calculation system for automated driving.

Der Begriff „Objekt“, wie er im Rahmen der vorliegenden Offenbarung verwendet wird, umfasst dynamische und statische Objekte. Insbesondere umfasst der Begriff „Objekt“ Personen, Fahrzeuge, straßenbauliche Eigenschaften, etc. Die vorliegende Offenbarung ist jedoch nicht hierauf begrenzt und der Begriff „Objekt“ kann jedes Objekt sein, das im Rahmen des automatisierten Fahrens bemaßt werden kann oder soll.The term “object” as used in the context of the present disclosure includes dynamic and static objects. In particular, the term “object” includes people, vehicles, road construction properties, etc. However, the present disclosure is not limited to this and the term “object” can be any object that can or should be dimensioned in the context of automated driving.

Das Referenzobjekt ist ein Objekt, dessen Abmessungen bekannt sind. Insbesondere kann eine Datenbank mit einer Vielzahl von Referenzobjekten und deren zugehörigen Maßen vorhanden sein. In einigen Ausführungsformen kann die Datenbank eine Normdatenbank sein. Beispielsweise kann ein Zugriff auf weltweite Standardbemaßung aus länderspezifischen Normdatenbanken für Referenzobjekte erfolgen.The reference object is an object whose dimensions are known. In particular, there can be a database with a large number of reference objects and their associated dimensions. In some embodiments, the database can be an authority database. For example, global standard dimensions can be accessed from country-specific standard databases for reference objects.

Die Datenbank kann in einer zentralen Einheit (Backend/Server) enthalten sein, mit der das Fahrzeug in Kommunikationsverbindung steht. Alternativ kann die Datenbank im Fahrzeug enthalten sein.The database can be contained in a central unit (backend / server) with which the vehicle is in communication. Alternatively, the database can be contained in the vehicle.

Die Bilddaten können mittels einer Umgebungssensorik des Fahrzeugs aufgenommen werden. Die Umgebungssensorik kann zum Beispiel eine oder mehrere Kameras umfassen, die die Bilddaten bzw. entsprechende Bilder erfassen. Die Umgebungssensorik des Fahrzeugs kann dabei eingerichtet sein, um die Bilddaten während einer Vorbeifahrt am Objekt bzw. Referenzobjekt zu erfassen. In einigen Ausführungsformen kann die Umgebungssensorik die Bilddaten seitlich in Bezug auf eine Fahrtrichtung des Fahrzeugs erfassen. Anders gesagt kann die Blickrichtung im Wesentlichen senkrecht zur Fahrtrichtung sein und/oder senkrecht zu einer Objektaufstandsfläche liegen, um ein möglichst verzerrungsfreies Objekt erfassen zu können.The image data can be recorded by means of an environment sensor system of the vehicle. The environment sensor system can include, for example, one or more cameras that the Capture image data or corresponding images. The environmental sensors of the vehicle can be set up to capture the image data while driving past the object or reference object. In some embodiments, the environment sensor system can capture the image data laterally with respect to a direction of travel of the vehicle. In other words, the viewing direction can be essentially perpendicular to the direction of travel and / or perpendicular to an object contact area in order to be able to capture an object that is as distortion-free as possible.

Vorzugsweise sind die Bilddaten zweidimensionale Bilddaten. Dies ist im Vergleich zu einem dreidimensionalen Ausmessen z.B. mittels einer Punktewolke vorteilhaft, da keine umfangreiche Ausstattung verwendet werden muss, um zeitaufwändig eine große Anzahl von dreidimensionalen Datenpunkten auszuwerten.The image data are preferably two-dimensional image data. This is advantageous in comparison to a three-dimensional measurement, e.g. using a point cloud, since extensive equipment does not have to be used to evaluate a large number of three-dimensional data points in a time-consuming manner.

Vorzugsweise erfolgt das Ermitteln einer Abmessung des zu bemessenden Objekts unter Verwendung von projektiver Geometrie. Insbesondere kann eine Bildverarbeitung und Berechnung mittels projektiver Geometrie (z.B. bei homogenen Koordinaten) erfolgen, und falls nötig unter Berücksichtigung zusätzlicher Daten z.B. aus Abständen von Objekten zu einem bekannten Referenzobjekt. Hierdurch kann insbesondere mittels projektiver Geometrie aus zweidimensionalen Bilddaten eine effiziente Größenabschätzung stattfinden, und somit ein effizienteres Berechnungssystem für das automatisierte Fahren des Fahrzeugs bereitgestellt werden.A dimension of the object to be measured is preferably determined using projective geometry. In particular, image processing and calculation can be carried out using projective geometry (e.g. with homogeneous coordinates) and, if necessary, taking additional data into account, e.g. from distances between objects and a known reference object. In this way, an efficient size estimation can take place in particular by means of projective geometry from two-dimensional image data, and thus a more efficient calculation system can be provided for the automated driving of the vehicle.

Vorzugsweise umfasst das Ermitteln einer Abmessung des zu bemessenden Objekts weiter ein Bestimmen einer perspektivisch verzerrten Abmessung des zu bemessenden Objekts; und ein Entzerren der perspektivisch verzerrten Abmessung, um die Abmessung des zu bemessenden Objekts zu erhalten. Dies kann beispielsweise unter Verwendung der projektiven Geometrie erfolgen.Preferably, determining a dimension of the object to be measured further comprises determining a perspective distorted dimension of the object to be measured; and rectifying the perspective distorted dimension to obtain the dimension of the object to be measured. This can be done using projective geometry, for example.

Der Begriff „perspektivisch verzerrten Abmessung“ bezieht sich darauf, dass die Kamera des Fahrzeugs das Bild des Objekts und des Referenzobjekts aus einer bestimmten Perspektive aufnimmt, so dass das dreidimensionale Objekt bzw. Referenzobjekt im zweidimensionalen Bild verzerrt dargestellt ist. Ist die Kamera zum Beispiel angewinkelt (unterhalb der Horizontalen: Vogelperspektive; oberhalb der Horizontalen: Froschperspektive), so gibt die Perspektive das Objekt entweder größer (bzw. länger/höher/breiter) oder kleiner (bzw. kürzer/niedriger/enger) wieder. Durch das Entzerren mittels der projektiven Geometrie können die realen Abmessungen des Objekts bestimmt werden.The term “perspective distorted dimension” refers to the fact that the camera of the vehicle records the image of the object and the reference object from a certain perspective, so that the three-dimensional object or reference object is shown distorted in the two-dimensional image. For example, if the camera is angled (below the horizontal: bird's eye view; above the horizontal: frog's eye view), the perspective shows the object either larger (or longer / higher / wider) or smaller (or shorter / lower / narrower). By rectifying by means of the projective geometry, the real dimensions of the object can be determined.

Vorzugsweise werden Bilder im Wesentlichen direkt auf Höhe des Objekts und auf Höhe des Referenzobjekts aufgenommen, um eine Verzerrung um die Hochachse zu vermeiden. Images are preferably recorded essentially directly at the level of the object and at the level of the reference object in order to avoid distortion about the vertical axis.

Beispielsweise kann zuerst ein zweidimensionales Ausmessen (z.B. Längen- und/oder Breitenvergleich) des zu bemessenden Objekts und des Referenzobjekts aus einem perspektivisch verzerrt Kamerabild erfolgen. Die Berechnung der realen Objekthöhe („Entzerrung“) kann dann durch projektive Geometrie unter Hinzunahme der realen Referenzkenngröße aus der Datenbank erfolgen und/oder durch ein zweites Bild des Referenzobjekts abgeglichen werden, welches durch das Fahrzeug möglichst unverzerrt in Form eines 2D-Bildes aufgenommen wurde. Ein solches Referenzbild fällt nur zeitgleich mit dem Bild des zu vermessenden Objekts zusammen, wenn sich das Objekt direkt vor dem Referenzobjekt befindet und die Kamera optimal mit möglichst geringerer Verzerrung positioniert wird. In allen anderen Fällen können wenigstens zwei Bilder verwendet werden, in welchen das Objekt und das Referenzobjekt möglichst verzerrungsfrei aufgenommen werden.For example, a two-dimensional measurement (e.g. length and / or width comparison) of the object to be measured and the reference object can first be carried out from a perspective distorted camera image. The calculation of the real object height ("rectification") can then be carried out by projective geometry with the addition of the real reference parameter from the database and / or compared with a second image of the reference object, which was recorded by the vehicle as undistorted as possible in the form of a 2D image . Such a reference image only coincides with the image of the object to be measured if the object is located directly in front of the reference object and the camera is optimally positioned with the least possible distortion. In all other cases, at least two images can be used in which the object and the reference object are recorded as free of distortion as possible.

Vorzugsweise erfolgt das Entzerren der perspektivisch verzerrten Abmessung unter Verwendung wenigstens eines Parameters, der aus der Gruppe ausgewählt ist, die das folgende umfasst oder aus dem folgenden besteht:

  • - einer perspektivisch verzerrten Abmessung des Referenzobjekts; und/oder
  • - der perspektivisch verzerrten Abmessung des zu bemessenden Objekts; und/oder
  • - der Standardabmessung des Referenzobjekts; und/oder
  • - einem Winkel eines Bildsensors bzw. einer Kamera zu einer Horizontalen; und/oder
  • - einem Abstand zwischen dem Bildsensor bzw. der Kamera und dem zu bemessenden Objekt; und/oder
  • - einem kürzesten Abstand zwischen dem Bildsensor bzw. der Kamera und dem Referenzobj ekt.
Preferably, the distorted perspective dimension is rectified using at least one parameter selected from the group that includes or consists of the following:
  • - a perspective distorted dimension of the reference object; and or
  • - the perspective distorted dimension of the object to be measured; and or
  • - the standard dimensions of the reference object; and or
  • - An angle of an image sensor or a camera to a horizontal; and or
  • a distance between the image sensor or the camera and the object to be measured; and or
  • - A shortest distance between the image sensor or the camera and the reference object.

Vorzugsweise ist das zu bemessende Objekt eine Person, wobei das Ermitteln einer Abmessung des zu bemessenden Objekts weiter ein Ermitteln einer Körperhaltung der Person, insbesondere basierend auf einer Geschwindigkeit der Person, und ein Ermitteln einer realen Größe der Person unter Berücksichtigung der Körperhaltung umfasst. Die Höhe von Menschen und Tieren variiert mit ihrer Geschwindigkeit. Somit kann neben einer gemessenen Höhe z.B. der Ausfallschritt analysiert werden, um zum Beispiel die Größe einer Person im Ruhezustand zu ermitteln.The object to be measured is preferably a person, wherein determining a dimension of the object to be measured further comprises determining a posture of the person, in particular based on a speed of the person, and determining a real size of the person taking into account the posture. The height of humans and animals varies with their speed. Thus, in addition to a measured height, e.g. the lunge can be analyzed, for example to determine the height of a person at rest.

Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist ein Software (SW) Programm angegeben. Das SW Programm kann eingerichtet werden, um auf einem oder mehreren Prozessoren ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren zur Bilderkennung für ein automatisiert fahrendes Fahrzeug auszuführen.According to a further independent aspect of the present disclosure, a software (SW) program is specified. The SW program can be set up to be executed on one or more processors, and thereby to execute the method described in this document for image recognition for an automatically driving vehicle.

Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist ein Speichermedium angegeben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem oder mehreren Prozessoren ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren zur Bilderkennung für ein automatisiert fahrendes Fahrzeug auszuführen.According to a further independent aspect of the present disclosure, a storage medium is specified. The storage medium can comprise a SW program which is set up to be executed on one or more processors and thereby to execute the method described in this document for image recognition for an automatically driving vehicle.

Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist ein Bilderkennungssystem angegeben. Das Bilderkennungssystem umfasst einen oder mehrere Prozessoren, die eingerichtet sind, um dadurch das in diesem Dokument beschriebene Verfahren zur Bilderkennung für ein automatisiert fahrendes Fahrzeug, und insbesondere Kraftfahrzeug, auszuführen.According to a further independent aspect of the present disclosure, an image recognition system is specified. The image recognition system comprises one or more processors which are set up to thereby execute the method described in this document for image recognition for an automated vehicle, and in particular a motor vehicle.

Vorzugsweise ist das Bilderkennungssystem vollständig im Fahrzeug implementiert. Alternativ dazu ist das Bilderkennungssystem teilweise im Fahrzeug (insbesondere die Umgebungssensorik zum Erfassen der Bilddaten), und teilweise durch eine zentrale Einheit implementiert.The image recognition system is preferably implemented entirely in the vehicle. As an alternative to this, the image recognition system is partially implemented in the vehicle (in particular the environmental sensor system for capturing the image data) and partially implemented by a central unit.

Die zentrale Einheit kann ein Server, wie zum Beispiel ein Backend eines Fahrzeugerstellers sein, die/das mit dem Fahrzeug in Kommunikationsverbindung ist, sein. Die Kommunikationsverbindung zwischen dem Fahrzeug und der zentralen Einheit kann über ein mobiles Netzwerk, wie zum Beispiel ein LTE-Netzwerk oder 5G-Netzwerk erfolgen, ist jedoch nicht hierauf begrenzt.The central unit can be a server, for example a backend of a vehicle manufacturer, which is in communication with the vehicle. The communication link between the vehicle and the central unit can take place via a mobile network, such as an LTE network or 5G network, but is not limited to this.

In einigen Ausführungsformen kann die zentrale Einheit zumindest einen Teil der Funktionalitäten des erfindungsgemäßen Bilderkennungssystems bereitstellen. Insbesondere kann die zentrale Einheit die Datenbank mit der Vielzahl von Referenzobjekten und deren zugehörigen Maßen umfassen.In some embodiments, the central unit can provide at least some of the functionalities of the image recognition system according to the invention. In particular, the central unit can include the database with the large number of reference objects and their associated dimensions.

Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist ein Fahrassistenzsystem zum automatisierten Fahren eines Fahrzeugs angegeben. Das Fahrassistenzsystem umfasst das in diesem Dokument beschriebene Bilderkennungssystem für ein Fahrzeug.According to a further independent aspect of the present disclosure, a driver assistance system for automated driving of a vehicle is specified. The driver assistance system comprises the image recognition system for a vehicle described in this document.

Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist ein Fahrzeug, insbesondere ein Kraftfahrzeug, angegeben. Das Fahrzeug umfasst das Fahrassistenzsystem zum automatisierten Fahren eines Fahrzeugs gemäß den Ausführungsformen der vorliegenden Offenbarung.According to a further independent aspect of the present disclosure, a vehicle, in particular a motor vehicle, is specified. The vehicle comprises the driver assistance system for automated driving of a vehicle according to the embodiments of the present disclosure.

Der Begriff Fahrzeug umfasst PKW, LKW, Busse, Wohnmobile, Krafträder, etc., die der Beförderung von Personen, Gütern, etc. dienen. Insbesondere umfasst der Begriff Kraftfahrzeuge zur Personenbeförderung.The term vehicle includes cars, trucks, buses, mobile homes, motorcycles, etc., which are used to transport people, goods, etc. In particular, the term includes motor vehicles for passenger transport.

Vorzugsweise umfasst das Fahrzeug eine Umgebungssensorik, die eingerichtet ist, um Umfelddaten zu erfassen. Vorzugsweise umfasst die Umgebungssensorik wenigstens ein LiDAR-System und/oder wenigstens ein Radar-System und/oder wenigstens eine Kamera und/oder wenigstens ein Ultraschall-System. Die Umgebungssensorik kann die Umfelddaten (auch als „Umgebungsdaten“ bezeichnet) bereitstellen, die einen Umgebungsbereich des Fahrzeugs abbilden.The vehicle preferably includes an environment sensor system which is set up to record environment data. The environmental sensor system preferably comprises at least one LiDAR system and / or at least one radar system and / or at least one camera and / or at least one ultrasound system. The environment sensor system can provide the environment data (also referred to as “environment data”), which depict an area around the vehicle.

Beim automatisierten Fahren erfolgt die Längs- und/oder Querführung des Fahrzeugs automatisch. Das Fahrassistenzsystem übernimmt also die Fahrzeugführung. Hierzu steuert das Fahrassistenzsystem den Antrieb, das Getriebe, die Betriebsbremse und die Lenkung. Zur Planung und Durchführung des automatisierten Fahrens werden Umfeldinformationen der Umfeldsensorik, die das Fahrzeugumfeld beobachtet, vom Fahrerassistenzsystem entgegengenommen.With automated driving, the longitudinal and / or lateral guidance of the vehicle takes place automatically. The driver assistance system therefore takes over the control of the vehicle. For this purpose, the driver assistance system controls the drive, the transmission, the service brake and the steering. To plan and carry out automated driving, information on the surroundings from the surroundings sensors that monitor the surroundings of the vehicle is received by the driver assistance system.

Unter dem Begriff „automatisiertes Fahren“ kann im Rahmen des Dokuments ein Fahren mit automatisierter Längs- oder Querführung oder ein autonomes Fahren mit automatisierter Längs- und Querführung verstanden werden. Bei dem automatisierten Fahren kann es sich beispielsweise um ein zeitlich längeres Fahren auf der Autobahn oder um ein zeitlich begrenztes Fahren im Rahmen des Einparkens oder Rangierens handeln. Der Begriff „automatisiertes Fahren“ umfasst ein automatisiertes Fahren mit einem beliebigen Automatisierungsgrad. Beispielhafte Automatisierungsgrade sind ein assistiertes, teilautomatisiertes, hochautomatisiertes oder vollautomatisiertes Fahren. Diese Automatisierungsgrade wurden von der Bundesanstalt für Straßenwesen (BASt) definiert (siehe BASt-Publikation „Forschung kompakt“, Ausgabe 11/2012).In the context of the document, the term “automated driving” can be understood to mean driving with automated longitudinal or lateral guidance or autonomous driving with automated longitudinal and lateral guidance. The automated driving can be, for example, driving on the motorway for a longer period of time or driving for a limited time as part of parking or maneuvering. The term “automated driving” includes automated driving with any degree of automation. Exemplary degrees of automation are assisted, partially automated, highly automated or fully automated driving. These degrees of automation were defined by the Federal Highway Research Institute (BASt) (see BASt publication “Research compact”, edition 11/2012).

Beim assistierten Fahren führt der Fahrer dauerhaft die Längs- oder Querführung aus, während das System die jeweils andere Funktion in gewissen Grenzen übernimmt. Beim teilautomatisierten Fahren (TAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum und/oder in spezifischen Situationen, wobei der Fahrer das System wie beim assistierten Fahren dauerhaft überwachen muss. Beim hochautomatisierten Fahren (HAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum, ohne dass der Fahrer das System dauerhaft überwachen muss; der Fahrer muss aber in einer gewissen Zeit in der Lage sein, die Fahrzeugführung zu übernehmen. Beim vollautomatisierten Fahren (VAF) kann das System für einen spezifischen Anwendungsfall das Fahren in allen Situationen automatisch bewältigen; für diesen Anwendungsfall ist kein Fahrer mehr erforderlich.With assisted driving, the driver continuously performs the longitudinal or lateral guidance, while the system takes on the other function within certain limits. With partially automated driving (TAF) the system takes over the longitudinal and lateral guidance for a certain period of time and / or in specific situations, whereby the driver has to constantly monitor the system as with assisted driving. With highly automated driving (HAF), the system takes over the longitudinal and lateral guidance for a certain period of time without the driver having to permanently monitor the system; however, the driver must be able to take control of the vehicle within a certain period of time. With fully automated driving (VAF), the system can automatically cope with driving in all situations for a specific application; a driver is no longer required for this application.

Die vorstehend genannten vier Automatisierungsgrade entsprechen den SAE-Level 1 bis 4 der Norm SAE J3016 (SAE - Society of Automotive Engineering). Beispielsweise entspricht das hochautomatisierte Fahren (HAF) Level 3 der Norm SAE J3016. Ferner ist in der SAE J3016 noch der SAE-Level 5 als höchster Automatisierungsgrad vorgesehen, der in der Definition der BASt nicht enthalten ist. Der SAE-Level 5 entspricht einem fahrerlosen Fahren, bei dem das System während der ganzen Fahrt alle Situationen wie ein menschlicher Fahrer automatisch bewältigen kann; ein Fahrer ist generell nicht mehr erforderlich.The four degrees of automation mentioned above correspond to SAE levels 1 to 4 of the SAE J3016 standard (SAE - Society of Automotive Engineering). For example, highly automated driving (HAF) Level 3 corresponds to the SAE J3016 standard. In addition, SAE J3016 provides SAE level 5 as the highest degree of automation, which is not included in the definition of BASt. SAE level 5 corresponds to driverless driving, in which the system can automatically cope with all situations like a human driver during the entire journey; a driver is generally no longer required.

FigurenlisteFigure list

Ausführungsbeispiele der Offenbarung sind in den Figuren dargestellt und werden im Folgenden näher beschrieben. Es zeigen:

  • 1 ein Flussdiagramm eines Verfahrens zur Bilderkennung für ein automatisiert fahrendes Fahrzeug gemäß Ausführungsformen der vorliegenden Offenbarung,
  • 2A eine Draufsicht auf ein zu bemessendes Objekt und ein Referenzobjekt gemäß Ausführungsformen der vorliegenden Offenbarung,
  • 2B eine Vogelperspektive eines zu bemessenden Objekts und eines Referenzobjekts gemäß Ausführungsformen der vorliegenden Offenbarung,
  • 2C eine Seitenansicht eines zu bemessenden Objekts und eines Referenzobjekts gemäß Ausführungsformen der vorliegenden Offenbarung,
  • 3 schematisch eine Körperhaltung einer Person und ihren Einfluss auf eine gemessene Höhe der Person gemäß Ausführungsformen der vorliegenden Offenbarung, und
  • 4 schematisch ein Fahrassistenzsystem zum automatisierten Fahren gemäß Ausführungsformen der vorliegenden Offenbarung.
Exemplary embodiments of the disclosure are shown in the figures and are described in more detail below. Show it:
  • 1 a flowchart of a method for image recognition for an automated driving vehicle according to embodiments of the present disclosure,
  • 2A a top view of an object to be measured and a reference object according to embodiments of the present disclosure,
  • 2 B a bird's eye view of an object to be measured and a reference object according to embodiments of the present disclosure,
  • 2C a side view of an object to be measured and a reference object according to embodiments of the present disclosure,
  • 3 schematically a posture of a person and its influence on a measured height of the person according to embodiments of the present disclosure, and
  • 4th schematically a driver assistance system for automated driving according to embodiments of the present disclosure.

Ausführungsformen der OffenbarungEmbodiments of the disclosure

Im Folgenden werden, sofern nicht anders vermerkt, für gleiche und gleichwirkende Elemente gleiche Bezugszeichen verwendet.Unless otherwise noted, the same reference symbols are used below for elements that are the same and have the same effect.

1 zeigt ein Flussdiagramm eines Verfahrens 100 zur Bilderkennung für ein automatisiert fahrendes Fahrzeug gemäß Ausführungsformen der vorliegenden Offenbarung. Das Verfahren 100 kann durch eine entsprechende Software implementiert werden, die durch einen oder mehrere Prozessoren (z.B. eine CPU) ausführbar ist. 1 shows a flow diagram of a method 100 for image recognition for an automated driving vehicle according to embodiments of the present disclosure. The procedure 100 can be implemented by appropriate software that can be executed by one or more processors (e.g. a CPU).

Das Verfahren 100 umfasst im Block 110 ein Erfassen von Bilddaten, wobei die Bilddaten ein Referenzobjekt und ein zu bemessendes Objekt umfassen; im Block 120 ein Ermitteln einer Standardabmessung des Referenzobjekts; und im Block 130 ein Ermitteln einer Abmessung des zu bemessenden Objekts basierend auf der Standardabmessung des Referenzobjekts.The procedure 100 includes in the block 110 acquiring image data, the image data including a reference object and an object to be measured; in the block 120 determining a standard dimension of the reference object; and in the block 130 determining a dimension of the object to be measured based on the standard dimension of the reference object.

In einigen Ausführungsformen können die Bilddaten ein einziges Bild darstellen, oder die Bilddaten können separaten Bildern jeweils möglichst senkrecht zur aufgespannten Objektoberfläche (möglichst verzerrungsfrei) entsprechen.In some embodiments, the image data can represent a single image, or the image data can correspond to separate images in each case as perpendicular as possible to the spanned object surface (as free of distortion as possible).

Ergänzend oder alternativ kann auch die Ermittlung der Standardabmessung unterschiedlich erfolgen. In einem Beispiel können die erfassten Bilddaten direkt ausgemessen werden, um die Standardabmessungen zu erhalten. In einem weiteren Beispiel können genormten Standardabmessungen z.B. von Datenservern abgerufen werden.In addition or as an alternative, the standard dimensions can also be determined in different ways. In one example, the captured image data can be measured directly to obtain the standard dimensions. In a further example, standardized dimensions can be called up e.g. from data servers.

Im Allgemeinen sind das dreidimensionale Objekt und das dreidimensionale Referenzobjekt im zweidimensionalen Bild verzerrt dargestellt. Ist die Kamera zum Beispiel angewinkelt (unterhalb der Horizontalen: Vogelperspektive; oberhalb der Horizontalen: Froschperspektive), so gibt die Perspektive das Objekt entweder größer (bzw. länger/höher/breiter) oder kleiner (bzw. kürzer/niedriger/enger) wieder. Durch ein Entzerren mittels projektiver Geometrie können die realen Abmessungen des Objekts bestimmt werden.In general, the three-dimensional object and the three-dimensional reference object are shown distorted in the two-dimensional image. For example, if the camera is angled (below the horizontal: bird's eye view; above the horizontal: frog's eye view), the perspective shows the object either larger (or longer / higher / wider) or smaller (or shorter / lower / narrower). The real dimensions of the object can be determined by rectifying using projective geometry.

Beispielsweise kann zuerst ein zweidimensionales Ausmessen (z.B. Längen- und/oder Breitenvergleich) des zu bemessenden Objekts und des Referenzobjekts aus einem perspektivisch verzerrt Kamerabild erfolgen. Die Berechnung der realen Objekthöhe („Entzerrung“) kann dann durch projektive Geometrie unter Hinzunahme der realen Referenzkenngröße aus der Datenbank erfolgen. Dies im Folgenden im Detail unter Bezugnahme auf die 2A, B und C erläutert.For example, a two-dimensional measurement (for example length and / or width comparison) of the object to be measured and the reference object can first take place from a perspective distorted camera image. The calculation of the real object height ("rectification") can then be carried out using projective geometry with the addition of the real reference parameter from the database. This in the following in detail with reference to the 2A, B and C. explained.

2A zeigt eine Draufsicht auf ein zu bemessendes Objekt MO und ein Referenzobjekt RO. 2B zeigt eine Vogelperspektive des zu bemessenden Objekts MO und des Referenzobjekts RO. 2C zeigt eine Seitenansicht des zu bemessenden Objekts MO und des Referenzobjekts RO. Alle drei Figuren spannen eine 2D-Ebene der 3D-Raumkoordinaten auf. 2A shows a top view of an object to be measured MO and a reference object RO . 2 B shows a bird's eye view of the object to be measured MO and the reference object RO . 2C shows a side view of the object to be measured MO and the reference object RO . All three figures span a 2D plane of the 3D spatial coordinates.

In diesem Beispiel ist das zu bemessende Objekt MO eine Person, und das Referenzobjekt RO ist eine Türe mit Standardmaßen, die aus einer Datenbank abrufbar sind.In this example the object to be designed is MO a person and the reference object RO is a door with standard dimensions that can be called up from a database.

Die Kamera 11 des Fahrzeugs 10 nimmt die Bilddaten während einer Vorbeifahrt am Objekt MO bzw. Referenzobjekt RO auf. Dies kann entweder sequenziell (z.B., wenn das bemessende Objekt MO und das Referenzobjekt RO überlappen) oder durch eine einzige Aufnahme erfolgen. Eine Blickrichtung BR der Kamera 11 ist seitlich in Bezug auf eine Fahrtrichtung FR des Fahrzeugs 10. Anders gesagt ist die Blickrichtung BR im Wesentlichen senkrecht zur Fahrtrichtung FR des Fahrzeugs 10.The camera 11 of the vehicle 10 takes the image data while driving past the object MO or reference object RO on. This can either be sequential (e.g. if the measuring object MO and the reference object RO overlap) or by a single exposure. One line of sight BR the camera 11 is lateral with respect to a direction of travel FR of the vehicle 10 . In other words, is the direction of view BR essentially perpendicular to the direction of travel FR of the vehicle 10 .

Die vorliegende Offenbarung ist jedoch nicht auf die senkrechte Blickrichtung BR beschränkt. Beispielsweise kann die Blickrichtung BR im Wesentlichen senkrecht zu einer genormten Oberfläche, wie einer geschlossenen Türoberseite oder einer Türleistenoberkante am Rahmen sein, um dessen tatsächliche Länge aus dem 2D-Referenzbild möglichst verzerrungsfrei ausmessen zu können. Die Kamera kann dabei senkrecht zur Fahrbahn/Fahrtrichtung eine höhere Wahrscheinlichkeit besitzen, um ein in Längsrichtung zur Fahrbahn ausgerichtetes Objekt auch wirklich senkrecht zu erfassen. In der Feinjustage kann eine Kamera sich aber auch immer bewegen.However, the present disclosure is not directed to the vertical line of sight BR limited. For example, the direction of view BR be essentially perpendicular to a standardized surface, such as a closed top side of a door or a top edge of a door strip on the frame, in order to be able to measure its actual length from the 2D reference image with as little distortion as possible. In this case, the camera can have a higher probability of being perpendicular to the roadway / direction of travel in order to actually capture an object that is aligned in the longitudinal direction to the roadway. In the fine adjustment, however, a camera can always move.

Zuerst werden das Objekt MO und das Referenzobjekt RO identifiziert und es werden Abstände ermitteln. Insbesondere werden die Bilddaten während der Vorbeifahrt am Objekt MO (mit Mittelachse MA) und dem Referenzobjekt RO (mit Türlängskante TK) erfasst und das Objekt MO und das Referenzobjekt RO per Bilderkennung erkannt.First the object MO and the reference object RO identified and distances will be determined. In particular, the image data are saved while driving past the object MO (with central axis MA ) and the reference object RO (with longitudinal door edge TK ) and the object MO and the reference object RO recognized by image recognition.

Das Objekt MO und das Referenzobjekt RO sind dabei idealerweise auf einer Höhe. Wenn das Objekt MO und das Referenzobjekt RO nicht auf einer Höhe sind, so kann der Abstand in y-Richtung (siehe 2B) zur Kamerahochachse z erfasst werden. Sonst ist ein Ausmessen eines Abstands b in x-Richtung (Kamera 11 zur Hochachse des Messobjekts MO) und eines Abstands a ausreichend (kürzester Weg zum Referenzobjekt RO; hier die Türaußenkante TK des Türaußenblatts; typischerweise ist es der kürzeste Abstand, in weiteren Ausführungsformen können aber auch andere Abstände zu standardisierten Längenmaßen verwendet werden, solange diese im Wesentlichen verzerrungsfrei sind, z.B. die Länge der Türrahmenoberkante anstelle der Länge der Türkante und somit der Abstand der Kamera zur Türrahmenoberkante.The object MO and the reference object RO are ideally at the same level. If the object MO and the reference object RO are not at the same level, the distance in the y-direction (see 2 B) to the camera vertical axis z are recorded. Otherwise it is necessary to measure a distance b in the x-direction (camera 11 to the vertical axis of the measuring object MO ) and a distance a sufficient (shortest path to the reference object RO ; here the outer edge of the door TK the door outer panel; Typically it is the shortest distance, but in other embodiments other distances to standardized lengths can be used as long as they are essentially free of distortion, e.g. the length of the top edge of the door frame instead of the length of the door edge and thus the distance between the camera and the top edge of the door frame.

Die Abstände können mittels der Umgebungssensorik des Fahrzeugs 10 erfasst werden, wie zum Beispiel durch ein Radarsystem, ein Lidarsystem, Ultrakurzwelle, etc.The distances can be determined by means of the vehicle's environment sensors 10 can be detected, for example by a radar system, a lidar system, ultra-short wave, etc.

Anschließend werden die Bilddaten ausgewertet. Dabei nimmt die Kamera 11 eine spezielle Perspektive ein, die von einem Winkel α der Kamera 11 zur Horizontalen abhängig ist, deren Verbauhöhe h im Fahrzeug 10 bei Geradeausblick den Horizont trifft (Fluchtpunkt). Hier wird nun per Bildauswertung das Objekt MO in seiner verzerrten Höhe h2 bestimmt. Ähnlich kann das Referenzobjekt RO per Bildauswertung in seiner verzerrten Höhe h1 bestimmt werden.The image data are then evaluated. The camera takes 11 a special perspective from an angle α of the camera 11 depends on the horizontal, the height of which H in the vehicle 10 meets the horizon when looking straight ahead (vanishing point). The object is now evaluated by means of image analysis MO in its distorted height h2 certainly. The reference object RO by image evaluation in its distorted height h1 to be determined.

Die tatsächliche Objekthöhe h4 lässt sich dann aus den gemessenen Höhen h1 und h2 sowie der Standardabmessung bzw. Referenzhöhe h3 des Referenzobjekts RO, dem Winkel α sowie den Abständen a und b errechnen. Die Referenzhöhe h3 ist durch einen Objektvergleich (z.B. Deutschland = ISO, Objekt = Türaußenblatt) mit der Datenbank ermittelbar.The actual height of the object h4 can then be derived from the measured heights h1 and h2 as well as the standard dimensions or reference height h3 of the reference object RO , the angle α and the distances a and b. The reference altitude h3 can be determined by comparing objects (e.g. Germany = ISO, object = outer door leaf) with the database.

3 zeigt schematisch eine Körperhaltung einer Person und ihren Einfluss auf eine gemessene Höhe der Person. 3 shows schematically a posture of a person and its influence on a measured height of the person.

Die Höhe von Menschen und Tieren variiert mit ihrer Geschwindigkeit. Somit kann neben einer gemessenen Höhe z.B. der Ausfallschritt analysiert werden, um zum Beispiel die Größe einer Person im Ruhezustand zu ermitteln. Im Beispiel der 3 ist links die gemessene Höhe c1 im Ruhezustand gezeigt. In der Mitte ist die gemessene Höhe c2 im Gehen gezeigt. Rechts ist die gemessene Höhe c3 im Laufen gezeigt. Dabei ist klar ersichtlich, dass die gemessen Höhe in Abhängigkeit der Körperhaltung variiert. Durch das Berücksichtigen der Körperhaltung kann eine genauere Abschätzung der Größe der Person ermöglicht werden.The height of humans and animals varies with their speed. Thus, in addition to a measured height, the lunge can be analyzed, for example, in order to determine the height of a person at rest. In the example of the 3 is the measured height on the left c1 shown at rest. In the middle is the measured height c2 shown while walking. On the right is the measured height c3 shown while running. It can be clearly seen that the measured height varies depending on the posture. By taking the posture into account, a more precise estimate of the height of the person can be made possible.

Ergänzend oder alternativ kann mittels der Umgebungssensorik auf eine Geschwindigkeit der Person geschlossen werden und eine damit verbundene Personenhöhe aus der Datenbank verknüpft werden. Aus der Verknüpfung kann dann wiederum auf eine Person im Ruhezustand geschlossen werden.Additionally or alternatively, a speed of the person can be deduced by means of the environmental sensor system and an associated person height can be linked from the database. A person in the idle state can then in turn be inferred from the link.

4 zeigt schematisch ein Fahrzeug 10 mit einem Fahrassistenzsystem 400 zum automatisierten Fahren gemäß Ausführungsformen der vorliegenden Offenbarung. 4th shows schematically a vehicle 10 with a driver assistance system 400 for automated driving according to embodiments of the present disclosure.

Beim automatisierten Fahren erfolgt die Längs- und Querführung des Fahrzeugs 10 automatisch. Das Fahrassistenzsystem 400 übernimmt also die Fahrzeugführung. Hierzu steuert das Fahrassistenzsystem 400 den Antrieb 20, das Getriebe 22, die (z.B. hydraulische) Betriebsbremse 24 und die Lenkung 26 über in diesem Beispiel nicht dargestellte Zwischeneinheiten.With automated driving, the vehicle is guided longitudinally and laterally 10 automatically. The driver assistance system 400 So takes over the vehicle guidance. The driver assistance system controls this 400 the drive 20th , The gear 22nd , the (e.g. hydraulic) service brake 24 and the steering 26th via intermediate units not shown in this example.

Zur Planung und Durchführung des automatisierten Fahrens werden Umfeldinformationen einer Umfeldsensorik, die das Fahrzeugumfeld beobachtet, vom Fahrerassistenzsystem 400 entgegengenommen. Insbesondere kann das Fahrzeug wenigstens einen Umgebungssensor 12 umfassen, der zur Aufnahme von Umgebungsdaten, die das Fahrzeugumfeld angeben, eingerichtet ist. Der wenigstens eine Umgebungssensor 12 kann beispielsweise ein oder mehrere LiDAR-Systeme, ein oder mehrere Radar-Systeme und/oder eine oder mehrere Kameras umfassen.To plan and implement automated driving, information about the surroundings is provided by an environmental sensor system that monitors the surroundings of the vehicle from the driver assistance system 400 accepted. In particular, the vehicle can have at least one environment sensor 12th which is set up to record environmental data indicating the vehicle surroundings. The at least one environmental sensor 12th can for example comprise one or more LiDAR systems, one or more radar systems and / or one or more cameras.

Die Kameras können die Bilddaten bzw. entsprechende Bilder erfassen, die gemäß den Ausführungsformen der vorliegenden Offenbarung zur Bemaßung von Objekten verwendet werden. Die Kamera des Fahrzeugs kann dabei eingerichtet sein, um die Bilddaten während einer Vorbeifahrt am Objekt bzw. Referenzobjekt zu erfassen. In einigen Ausführungsformen kann die Umgebungssensorik die Bilddaten seitlich in Bezug auf eine Fahrtrichtung des Fahrzeugs erfassen.The cameras can capture the image data or corresponding images that are used for dimensioning objects in accordance with the embodiments of the present disclosure. The camera of the vehicle can be set up to capture the image data while driving past the object or reference object. In some embodiments, the environment sensor system can capture the image data laterally with respect to a direction of travel of the vehicle.

Erfindungsgemäß werden Objekte basierend auf Standardabmessungen eines Referenzobjekts, das sich im selben Bild oder in sequenziell aufgenommenen Bildern befindet, bemaßt (wenn sich keine Überlappung von Referenz- und Messobjekt ermöglicht, dann können zwei Bilder verwendet werden, d.h. es erfolgt eine Ermittlung aus zwei Bildern, also einem Bild für das Messobj ekt und einem für das Referenzobj ekt). Dies geschieht insbesondere, indem das Objekt und das Referenzobjekt ins Verhältnis gesetzt werden. Damit kann anhand eines Größenvergleichs des Objekts mit Referenzobjekten beispielsweise eine Höhe einer Person durch einen Vergleich mit einem Standardmaß einer Standardtür, während die Person daran vorbeiläuft, abgeschätzt werden. Hierdurch kann eine effiziente Größenabschätzung und damit ein effizientes Berechnungssystem für das automatisierte Fahren bereitgestellt werden.According to the invention, objects are dimensioned based on standard dimensions of a reference object that is located in the same image or in sequentially recorded images (if it is not possible for the reference and measurement object to overlap, then two images can be used, ie a determination is made from two images, i.e. one image for the measurement object and one for the reference object). This is done in particular by setting the object and the reference object in relation to one another. In this way, on the basis of a size comparison of the object with reference objects, for example a height of a person can be estimated by comparison with a standard dimension of a standard door while the person walks past it. This makes it possible to provide an efficient size estimation and thus an efficient calculation system for automated driving.

Obwohl die Erfindung im Detail durch bevorzugte Ausführungsbeispiele näher illustriert und erläutert wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Es ist daher klar, dass eine Vielzahl von Variationsmöglichkeiten existiert. Es ist ebenfalls klar, dass beispielhaft genannte Ausführungsformen wirklich nur Beispiele darstellen, die nicht in irgendeiner Weise als Begrenzung etwa des Schutzbereichs, der Anwendungsmöglichkeiten oder der Konfiguration der Erfindung aufzufassen sind. Vielmehr versetzen die vorhergehende Beschreibung und die Figurenbeschreibung den Fachmann in die Lage, die beispielhaften Ausführungsformen konkret umzusetzen, wobei der Fachmann in Kenntnis des offenbarten Erfindungsgedankens vielfältige Änderungen beispielsweise hinsichtlich der Funktion oder der Anordnung einzelner, in einer beispielhaften Ausführungsform genannter Elemente vornehmen kann, ohne den Schutzbereich zu verlassen, der durch die Ansprüche und deren rechtliche Entsprechungen, wie etwa weitergehenden Erläuterungen in der Beschreibung, definiert wird.Although the invention has been illustrated and explained in more detail by preferred exemplary embodiments, the invention is not restricted by the disclosed examples and other variations can be derived therefrom by the person skilled in the art without departing from the scope of protection of the invention. It is therefore clear that there is a multitude of possible variations. It is also clear that embodiments cited by way of example really only represent examples that are not to be interpreted in any way as a limitation, for example, of the scope of protection, the possible applications or the configuration of the invention. Rather, the preceding description and the description of the figures enable the person skilled in the art to specifically implement the exemplary embodiments, whereby the person skilled in the art, with knowledge of the disclosed inventive concept, can make various changes, for example with regard to the function or the arrangement of individual elements mentioned in an exemplary embodiment, without the To leave the scope of protection that is defined by the claims and their legal equivalents, such as further explanations in the description.

Claims (10)

Verfahren (100) zur Bilderkennung für ein automatisiert fahrendes Fahrzeug (10), umfassend: Erfassen (110) von Bilddaten, wobei die Bilddaten ein Referenzobjekt (RO) und ein zu bemessendes Objekt (MO) umfassen; Ermitteln (120) einer Standardabmessung des Referenzobjekts (RO); und Ermitteln (130) einer Abmessung des zu bemessenden Objekts (MO) basierend auf der Standardabmessung des Referenzobjekts (RO).A method (100) for image recognition for an automated driving vehicle (10), comprising: Acquiring (110) image data, the image data comprising a reference object (RO) and an object to be measured (MO); Determining (120) a standard dimension of the reference object (RO); and Determining (130) a dimension of the object to be measured (MO) based on the standard dimension of the reference object (RO). Das Verfahren (100) nach Anspruch 1, wobei die Bilddaten zweidimensionale Bilddaten sind.The method (100) according to Claim 1 wherein the image data is two-dimensional image data. Das Verfahren (100) nach Anspruch 1 oder 2, wobei das Ermitteln einer Abmessung des zu bemessenden Objekts (MO) unter Verwendung von projektiver Geometrie erfolgt.The method (100) according to Claim 1 or 2 , wherein the determination of a dimension of the object to be measured (MO) takes place using projective geometry. Das Verfahren (100) nach einem der Ansprüche 1 bis 3, wobei das Ermitteln einer Abmessung des zu bemessenden Objekts (MO) weiter umfasst: Bestimmen einer perspektivisch verzerrten Abmessung des zu bemessenden Objekts (MO); und Entzerren der perspektivisch verzerrten Abmessung, um die Abmessung des zu bemessenden Objekts (MO) zu erhalten.The method (100) according to one of the Claims 1 until 3 wherein determining a dimension of the object (MO) to be measured further comprises: determining a perspective distorted dimension of the object (MO) to be measured; and rectifying the perspective distorted dimension to obtain the dimension of the object to be measured (MO). Das Verfahren (100) nach Anspruch 4, wobei das Entzerren der perspektivisch verzerrten Abmessung unter Verwendung wenigstens eines der folgenden Parameter erfolgt: einer perspektivisch verzerrten Abmessung des Referenzobjekts (RO); und/oder der perspektivisch verzerrten Abmessung des zu bemessenden Objekts (MO); und/oder der Standardabmessung des Referenzobjekts (RO); und/oder einem Winkel eines Bildsensors (11) zu einer Horizontalen; und/oder einem Abstand (b) zwischen dem Bildsensor (11) und dem zu bemessenden Objekt (MO); und/oder einem kürzesten Abstand (a) zwischen dem Bildsensor (11) und dem Referenzobjekt (RO).The method (100) according to Claim 4 wherein the rectifying of the perspective distorted dimension takes place using at least one of the following parameters: a perspective distorted dimension of the reference object (RO); and / or the perspective distorted dimension of the object to be measured (MO); and / or the standard dimensions of the reference object (RO); and / or an angle of an image sensor (11) to a horizontal; and / or a distance (b) between the image sensor (11) and the object to be measured (MO); and / or a shortest distance (a) between the image sensor (11) and the reference object (RO). Das Verfahren (100) nach einem der Ansprüche 1 bis 5, wobei das zu bemessende Objekt (MO) eine Person ist, und wobei das Ermitteln einer Abmessung des zu bemessenden Objekts (MO) weiter umfasst: Ermitteln einer Körperhaltung der Person, insbesondere basierend auf einer Geschwindigkeit der Person; und Ermitteln einer realen Größe der Person unter Berücksichtigung der Körperhaltung.The method (100) according to one of the Claims 1 until 5 wherein the object (MO) to be measured is a person, and wherein determining a dimension of the object (MO) to be measured further comprises: determining a posture of the person, in particular based on a speed of the person; and determining a real height of the person taking into account the posture. Speichermedium, umfassend ein Software-Programm, das eingerichtet ist, um auf einem oder mehreren Prozessoren ausgeführt zu werden, und um dadurch das Verfahren (100) gemäß einem der Ansprüche 1 bis 6 auszuführen.A storage medium, comprising a software program which is set up to be executed on one or more processors, and thereby the method (100) according to one of the Claims 1 until 6th to execute. Bilderkennungssystem, umfassend einen oder mehrere Prozessoren, die eingerichtet sind, um das Verfahren (100) nach einem der Ansprüche 1 bis 6 auszuführen.An image recognition system comprising one or more processors which are set up to carry out the method (100) according to one of the Claims 1 until 6th to execute. Fahrassistenzsystem (400) zum automatisierten Fahren eines Fahrzeugs (10), umfassend das Bilderkennungssystem nach Anspruch 8.Driver assistance system (400) for automated driving of a vehicle (10), comprising the image recognition system according to Claim 8 . Fahrzeug (10), insbesondere Kraftfahrzeug, umfassend das Fahrassistenzsystem (400) nach Anspruch 9.Vehicle (10), in particular motor vehicle, comprising the driver assistance system (400) according to Claim 9 .
DE102020111471.0A 2020-04-27 2020-04-27 Method and system for image recognition for an automated vehicle Pending DE102020111471A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020111471.0A DE102020111471A1 (en) 2020-04-27 2020-04-27 Method and system for image recognition for an automated vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020111471.0A DE102020111471A1 (en) 2020-04-27 2020-04-27 Method and system for image recognition for an automated vehicle

Publications (1)

Publication Number Publication Date
DE102020111471A1 true DE102020111471A1 (en) 2021-10-28

Family

ID=78260940

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020111471.0A Pending DE102020111471A1 (en) 2020-04-27 2020-04-27 Method and system for image recognition for an automated vehicle

Country Status (1)

Country Link
DE (1) DE102020111471A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020115306A1 (en) 2020-06-09 2021-12-09 Bayerische Motoren Werke Aktiengesellschaft Method and device for measuring the distance between a vehicle and another traffic object

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011011870A1 (en) 2010-02-23 2011-08-25 Conti Temic microelectronic GmbH, 90411 Method for detecting, classifying, tracking and predicating pedestrians in environment of motor car for implementing assistance function in e.g. driver assistance system utilized for protecting pedestrian, involves detecting components
DE102013207906A1 (en) 2013-04-30 2014-10-30 Bayerische Motoren Werke Aktiengesellschaft Guided vehicle positioning for inductive charging with the help of a vehicle camera
DE102015200436A1 (en) 2015-01-14 2016-07-14 Bayerische Motoren Werke Aktiengesellschaft Method and apparatus for reducing false classifications in object detection
DE102015112289A1 (en) 2015-07-28 2017-02-02 Valeo Schalter Und Sensoren Gmbh Method for identifying an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle
DE102018109371A1 (en) 2017-04-20 2018-10-25 GM Global Technology Operations LLC CALIBRATION VALIDATION FOR THE OPERATION OF AUTONOMOUS VEHICLES

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011011870A1 (en) 2010-02-23 2011-08-25 Conti Temic microelectronic GmbH, 90411 Method for detecting, classifying, tracking and predicating pedestrians in environment of motor car for implementing assistance function in e.g. driver assistance system utilized for protecting pedestrian, involves detecting components
DE102013207906A1 (en) 2013-04-30 2014-10-30 Bayerische Motoren Werke Aktiengesellschaft Guided vehicle positioning for inductive charging with the help of a vehicle camera
DE102015200436A1 (en) 2015-01-14 2016-07-14 Bayerische Motoren Werke Aktiengesellschaft Method and apparatus for reducing false classifications in object detection
DE102015112289A1 (en) 2015-07-28 2017-02-02 Valeo Schalter Und Sensoren Gmbh Method for identifying an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle
DE102018109371A1 (en) 2017-04-20 2018-10-25 GM Global Technology Operations LLC CALIBRATION VALIDATION FOR THE OPERATION OF AUTONOMOUS VEHICLES

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020115306A1 (en) 2020-06-09 2021-12-09 Bayerische Motoren Werke Aktiengesellschaft Method and device for measuring the distance between a vehicle and another traffic object

Similar Documents

Publication Publication Date Title
DE102012024874B4 (en) Method and device for predicatively determining a parameter value of a vehicle passable surface
WO2021043507A1 (en) Lateral control of a vehicle by means of environment data detected from other vehicles
EP3455785B1 (en) Method for traffic sign detection
DE102013205882A1 (en) Method and device for guiding a vehicle around an object
DE102015203016A1 (en) Method and device for optical self-localization of a motor vehicle in an environment
DE102016223422A1 (en) Method for automatically determining extrinsic parameters of a camera of a vehicle
DE102018214510A1 (en) Parking ticket generation on the street
DE102018122374B4 (en) Method for determining a free space surrounding a motor vehicle, computer program product, free space determination device and motor vehicle
DE102020100022A1 (en) POSITION DETERMINATION TECHNOLOGY
DE102016014712B4 (en) Vehicle and method for outputting information to a vehicle environment
DE102015116542A1 (en) Method for determining a parking area for parking a motor vehicle, driver assistance system and motor vehicle
WO2017178232A1 (en) Method for operating a driver assistance system of a motor vehicle, computing device, driver assistance system, and motor vehicle
DE102018213378B4 (en) Driver assistance system for a vehicle, vehicle with the same and driver assistance method for a vehicle
DE102017123226A1 (en) A method of determining a critical altitude of a forward link for a vehicle comprising a towing vehicle and a trailer
DE102020111471A1 (en) Method and system for image recognition for an automated vehicle
WO2018059735A1 (en) Method for the self-location of a vehicle
EP1944212A1 (en) Method and device for recognising potentially dangerous objects for a vehicle
DE3541969C2 (en) Device for measuring lateral deviation (vertical distance between vehicle and target trajectory) and relative yaw angle (angle between vehicle longitudinal axis and tangent to target trajectory) of a vehicle
DE102020123808A1 (en) Method and system for acquiring environmental data to ensure environmental recognition
DE102004047122A1 (en) Sensor and guidance system for road vehicle has four different types of sensor in front of vehicle, building up picture of environment in front of vehicle, including IR and video sensors
DE102019120440A1 (en) Method and system for the automated creation of object markings for use in a driver assistance system of a vehicle
DE102017103154A1 (en) Method for generating a digital environment map of an environment of a motor vehicle taking into account a free space, computing device, driver assistance system and motor vehicle
DE102020117628A1 (en) Driver assistance system and driver assistance method for automated driving of a vehicle
DE102018220803A1 (en) Precise tracking of vehicles
DE102022211766A1 (en) Method for generating environmental information, control device, vehicle and computer program

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication