DE102022112317A1 - Method for determining three-dimensional extent information of a target object, motor vehicle, computer program and electronically readable data carrier - Google Patents

Method for determining three-dimensional extent information of a target object, motor vehicle, computer program and electronically readable data carrier Download PDF

Info

Publication number
DE102022112317A1
DE102022112317A1 DE102022112317.0A DE102022112317A DE102022112317A1 DE 102022112317 A1 DE102022112317 A1 DE 102022112317A1 DE 102022112317 A DE102022112317 A DE 102022112317A DE 102022112317 A1 DE102022112317 A1 DE 102022112317A1
Authority
DE
Germany
Prior art keywords
target object
information
determined
camera image
rectangle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022112317.0A
Other languages
German (de)
Inventor
Sebastian Dorn
Sebastian Garreis
Chiragkumar Savani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102022112317.0A priority Critical patent/DE102022112317A1/en
Publication of DE102022112317A1 publication Critical patent/DE102022112317A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

Verfahren zur Ermittlung einer dreidimensionalen Ausdehnungsinformation eines Zielobjekts (2, 12, 22), insbesondere eines Fahrzeugs, aus einem das Zielobjekt (2, 12, 22) zeigenden, zweidimensionalen Kamerabild (1, 11, 21), welches mit einer Kamera (39), die intrinsisch und extrinsisch bezüglich eines die Kamera (39) tragenden Egoobjekts, insbesondere Kraftfahrzeugs (38), kalibriert ist, aufgenommen wird, wobei aus einer Bodeninformation zu der dreidimensionalen Lage der Bodenebene (30) unter dem Zielobjekt (2, 12, 22) zu der Kamera (39) und einer durch Auswertung des Kamerabildes (1, 11, 21) mittels eines Auswertungsalgorithmus ermittelten, zumindest ein das Zielobjekt (2, 12, 22) in dem Kamerabild (1, 11, 21) einschließendes Rechteck (4, 14, 24) beschreibenden zweidimensionalen Auswertungsinformation die dreidimensionale Ausdehnungsinformation bestimmt wird, wobei- als Teil der Auswertungsinformation zusätzlich eine die Orientierung des Zielobjekts (2, 12, 22) für wenigstens eine vertikal verlaufende Seite des Zielobjekts (2, 12, 22) an deren unterem Rand in dem Kamerabild (1, 11, 21) anzeigende Orientierungsinformation, insbesondere je nach Bildinhalt des Kamerabildes (1, 11, 21) eine Orientierungslinie (6, 26) oder ein Orientierungspunkt (16), ermittelt wird, und- für wenigstens einen mittels der Orientierungsinformation und des Rechtecks (4, 14, 24) ermittelten Rechenpunkt (31, 33, 35, 36, 37) des Kamerabildes (1, 11, 21) die dreidimensionale Position eines zugeordneten, auf der Bodenebene (30) liegenden Bodeneckpunkts eines das Zielobjekt (2, 12, 22)Method for determining three-dimensional expansion information of a target object (2, 12, 22), in particular a vehicle, from a two-dimensional camera image (1, 11, 21) showing the target object (2, 12, 22), which has a camera (39) which is intrinsically and extrinsically calibrated with respect to an ego object carrying the camera (39), in particular a motor vehicle (38), is recorded, with ground information relating to the three-dimensional position of the ground plane (30) under the target object (2, 12, 22) to the camera (39) and a rectangle (4) which is determined by evaluating the camera image (1, 11, 21) using an evaluation algorithm and which encloses the target object (2, 12, 22) in the camera image (1, 11, 21), 14, 24) describing the two-dimensional evaluation information, the three-dimensional expansion information is determined, whereby - as part of the evaluation information, the orientation of the target object (2, 12, 22) for at least one vertically extending side of the target object (2, 12, 22) on its lower side is also determined Orientation information indicating the edge in the camera image (1, 11, 21), in particular an orientation line (6, 26) or an orientation point (16) depending on the image content of the camera image (1, 11, 21), is determined, and - for at least one by means The calculation point (31, 33, 35, 36, 37) of the camera image (1, 11, 21) determined from the orientation information and the rectangle (4, 14, 24) determines the three-dimensional position of an assigned floor corner point of a which lies on the floor plane (30). Target object (2, 12, 22)

Description

Die Erfindung betrifft ein Verfahren zur Ermittlung einer dreidimensionalen Ausdehnungsinformation eines Zielobjekts, insbesondere eines Fahrzeugs, aus einem das Zielobjekt zeigenden, zweidimensionalen Kamerabild, welches mit einer Kamera, die intrinsisch und extrinsisch bezüglich eines die Kamera tragenden Egoobjekts, insbesondere Kraftfahrzeugs, kalibriert ist, aufgenommen wird, wobei aus einer Bodeninformation zu der dreidimensionalen Lage der Bodenebene unter dem Zielobjekt zu der Kamera und einer durch Auswertung des Kamerabildes mittels eines Auswertungsalgorithmus ermittelten, zumindest ein das Zielobjekt in dem Kamerabild einschließendes Rechteck beschreibenden zweidimensionalen Auswertungsinformation die dreidimensionale Ausdehnungsinformation bestimmt wird. Daneben betrifft die Erfindung ein Kraftfahrzeug, ein Computerprogramm und einen elektronisch lesbaren Datenträger.The invention relates to a method for determining three-dimensional expansion information of a target object, in particular a vehicle, from a two-dimensional camera image showing the target object, which is recorded with a camera that is intrinsically and extrinsically calibrated with respect to an ego object carrying the camera, in particular a motor vehicle , wherein the three-dimensional expansion information is determined from ground information on the three-dimensional position of the ground plane under the target object to the camera and from two-dimensional evaluation information determined by evaluating the camera image using an evaluation algorithm and describing at least one rectangle enclosing the target object in the camera image. The invention also relates to a motor vehicle, a computer program and an electronically readable data carrier.

Für eine Vielzahl von auf Sensordaten beruhenden Anwendungen, insbesondere im Automotive-Bereich, sollen aus Sensordaten Informationen über die Position und Ausdehnung von Zielobjekten im Erfassungsbereich des jeweiligen Sensors abgeleitet werden. Eine günstige Variante eines derartigen Sensors ist eine zweidimensionale Kamerabilder aufnehmende Kamera. Da diese jedoch nur zweidimensionale Kamerabilder liefert, sind Gegenstand der Forschung und Entwicklung auch Verfahren, um aus solchen zweidimensionalen Kamerabildern dreidimensionale Ausdehnungsinformationen bezüglich wenigstens eines Zielobjekts herzuleiten.For a variety of applications based on sensor data, especially in the automotive sector, information about the position and extent of target objects in the detection range of the respective sensor should be derived from sensor data. A cheap variant of such a sensor is a camera that records two-dimensional camera images. However, since this only provides two-dimensional camera images, the subject of research and development is also methods for deriving three-dimensional expansion information regarding at least one target object from such two-dimensional camera images.

Dabei ist insbesondere die Erkennung von Zielobjekten im Straßenverkehr, beispielsweise die Erkennung anderer Fahrzeuge sowie deren Position, Orientierung und Größe, ein wichtiges Einsatzgebiet, insbesondere im Hinblick auf Anwendungen, die die zumindest teilweise automatische Führung von Fahrzeugen, insbesondere Kraftfahrzeugen, ermöglichen sollen. Ist im Kraftfahrzeug nur eine einzelne, nach außen gerichtete Kamera, beispielsweise eine Frontkamera, vorhanden, können aktuelle Ansätze entweder die Zielobjekte im zweidimensionalen Kamerabild lokalisieren oder im dreidimensionalen Raum. Dabei wurde für beide Ansätze bereits vorgeschlagen, Methoden des maschinellen Lernens einzusetzen, beispielsweise trainierte Funktionen wie neuronale Netze. Hierbei sind allerdings große Datenmengen erforderlich, um die erforderliche Performanz und Zuverlässigkeit zu erreichen.In particular, the detection of target objects in road traffic, for example the detection of other vehicles as well as their position, orientation and size, is an important area of application, especially with regard to applications that are intended to enable the at least partially automatic guidance of vehicles, in particular motor vehicles. If there is only a single, outward-facing camera in the motor vehicle, for example a front camera, current approaches can either localize the target objects in the two-dimensional camera image or in three-dimensional space. It has already been proposed to use machine learning methods for both approaches, for example trained functions such as neural networks. However, large amounts of data are required to achieve the required performance and reliability.

Hinsichtlich vieler Fahrfunktionen, insbesondere eine wenigstens teilweise automatische Führung eines Kraftfahrzeugs ermöglichenden Fahrfunktionen, liefern im Stand der Technik bekannte Methoden und Ansätze keine hinreichenden Informationen (2D-Zielobjekterkennung) oder benötigen in der Entwicklung eine große Anzahl genauer Annotationen von Zielobjekten im dreidimensionalen Raum (3D-Objekterkennung). Derartige dreidimensionale Annotationen für Trainingsdaten sind sehr aufwendig und häufig nur unter Einbeziehung weiterer Sensorik, zum Beispiel von Laserscannern, zu erhalten. Zweidimensionale Annotationen im Gegenzug sind einfacher und schneller zu erstellen. In diesem Zusammenhang wurde vorgeschlagen, annotierte Rechtecke um die Zielobjekte zu verwenden oder eine pixelweise Zuordnung zu Zielobjekten vorzunehmen (Instanz-Segmentierung). Diese 2D-Annotationen liefern jedoch zunächst keine Informationen über die Position und Orientierung des Zielobjekts im dreidimensionalen Raum.With regard to many driving functions, in particular driving functions that enable at least partially automatic guidance of a motor vehicle, methods and approaches known in the prior art do not provide sufficient information (2D target object recognition) or require a large number of precise annotations of target objects in three-dimensional space (3D object detection). Such three-dimensional annotations for training data are very complex and can often only be obtained using additional sensor technology, for example laser scanners. Two-dimensional annotations, in turn, are easier and faster to create. In this context, it was suggested to use annotated rectangles around the target objects or to assign pixels to target objects (instance segmentation). However, these 2D annotations initially do not provide any information about the position and orientation of the target object in three-dimensional space.

US 2020 / 0160033 A1 beschreibt Systeme und Verfahren zum Erheben dreidimensionaler Repräsentationen aus monokularen zweidimensionalen Bildern. Dabei wird ein monokulares 2D-Bild durch eine Kamera aufgenommen und verarbeitet, um ein oder mehr Eigenschaftskarten zu erzeugen, deren Eigenschaften diese Eigenschaften oder Objektlabel umfassen können. US 2020 / 0160033 A1 describes systems and methods for collecting three-dimensional representations from monocular two-dimensional images. A monocular 2D image is captured by a camera and processed to produce one or more property maps whose properties may include these properties or object labels.

Interessierende Regionen, die mit Fahrzeugen in dem Bild korrespondieren, werden bestimmt und auf jede interessierende Region wird eine Lifting-Funktion angewendet, um Werte wie beispielsweise Höhe und Breite, Kameraabstand und Orientierung zu bestimmen. Eine Acht-Punkte-Box, mithin ein Quader, wird ermittelt, der eine 3D-Repräsentation des Fahrzeugs ist, welches in der interessierenden Region enthalten ist. Die 3D-Repräsentationen können beispielsweise für die Routenplanung, Kollisionsvermeidung oder als Trainingsdaten eingesetzt werden. Informationen über den Untergrund, das Terrain, Straßen, Oberflächen und andere Eigenschaften können einbezogen werden.Regions of interest that correspond to vehicles in the image are determined and a lifting function is applied to each region of interest to determine values such as height and width, camera distance and orientation. An eight-point box, i.e. a cuboid, is determined, which is a 3D representation of the vehicle contained in the region of interest. The 3D representations can be used, for example, for route planning, collision avoidance or as training data. Information about the subsoil, terrain, roads, surfaces and other properties can be included.

Ein Verfahren zum Abschätzen einer relativen Position eines Objekts in der Umgebung eines Fahrzeugs wird durch EP 3 594 002 A1 beschrieben. Hierin wird die relative Position auf der Basis eines zweidimensionalen Kamerabilds ermittelt, wobei zunächst eine Objektkontur des Objekts in dem Kamerabild bestimmt wird und wenigstens eine digitale Objektvorlage ermittelt wird, die das Objekt auf der Basis der Objektkontur repräsentiert. Die wenigstens eine Objektvorlage wird aus unterschiedlichen Positionen auf eine Bildebene des Kamerabilds projiziert, wobei jede vorwärtsprojizierte Objektvorlage einen entsprechenden zweidimensionalen Konturvorschlag erzielt. Durch Vergleich der Konturvorschläge mit der Objektkontur des Objekts soll die richtige Position bestimmt werden. Die Objektkontur kann eine zweidimensionale Berandungsbox, also ein Rechteck, sein. Die Objektvorlage kann eine dreidimensionale Berandungsbox, also ein Quader, sein, die das Objekt repräsentiert. Es ist auch denkbar, dass jede Objektvorlage einen spezifischen Objekttyp und eine spezifische Objektgröße sowie räumliche Orientierung repräsentiert, beispielsweise ein Fahrzeug, einen Fußgänger oder einen Radfahrer. Die Zahl möglicher Positionen für die Vorwärtsprojektionen kann durch Vorsehen einer Bodenebene reduziert werden.A method for estimating a relative position of an object in the environment of a vehicle is provided by EP 3 594 002 A1 described. Here, the relative position is determined on the basis of a two-dimensional camera image, wherein an object contour of the object in the camera image is first determined and at least one digital object template is determined which represents the object on the basis of the object contour. The at least one object template is projected from different positions onto an image plane of the camera image, with each forward-projected object template achieving a corresponding two-dimensional contour suggestion. The correct position should be determined by comparing the contour suggestions with the object contour of the object. The object contour can be a two-dimensional boundary box, i.e. a rectangle. The object template can be a three-dimensional boundary box, i.e. a cuboid, that represents the object. It is also conceivable that each object template represents a specific object type and size as well as spatial orientation, for example a vehicle, a pedestrian or a cyclist. The number of possible positions for the forward projections can be reduced by providing a ground plane.

US 2016 / 0140400 A1 offenbart Systeme und Verfahren zur Bereitstellung eines fortgeschrittenen Warnsystems (AWS) für einen Fahrer eines Fahrzeugs, in dem Verkehrsszenen mittels eines einzigen Kameravideos aufgenommen werden. Das einzelne Kameravideo wird zur Erzeugung einer monokularen SFM (Structure from Motion) und zweidimensionalen Objektdetektion in Echtzeit ausgewertet, woraus wiederum eine Bodenebene bestimmt wird. Eine dichte 3D-Abschätzung wird anhand der monokularen SFM und der zweidimensionalen Objektdetektion vorgenommen, um eine gemeinsame 3D-Objektlokalisierung aus der Bodenebene und der dichten dreidimensionalen Abschätzung zu erzeugen. Insbesondere können aus dem monokularem Video zweidimensionale Begrenzungsboxen in den Bildern bestimmt werden, welche dann über mehrere Bilder nachverfolgt werden, um 3D-Informationen abzuleiten.US 2016/0140400 A1 discloses systems and methods for providing an advanced warning system (AWS) to a driver of a vehicle in which traffic scenes are recorded using a single camera video. The individual camera video is evaluated to generate a monocular SFM (Structure from Motion) and two-dimensional object detection in real time, from which a ground level is determined. A dense 3D estimation is performed using the monocular SFM and the two-dimensional object detection to produce a joint 3D object localization from the ground plane and the dense three-dimensional estimation. In particular, two-dimensional bounding boxes in the images can be determined from the monocular video, which are then tracked across multiple images to derive 3D information.

Der Erfindung liegt die Aufgabe zu Grunde, eine demgegenüber verbesserte, insbesondere einfach umsetzbare und robuste, Ermittlung von die dreidimensionale Position und Ausdehnung eines Zielobjekts beschreibenden Ausdehnungsinformationen aus zweidimensionalen Kamerabildern bereitzustellen.The invention is based on the object of providing an improved, in particular easy to implement and robust, determination of expansion information describing the three-dimensional position and extent of a target object from two-dimensional camera images.

Diese Aufgabe wird gelöst durch ein Verfahren, ein Kraftfahrzeug, ein Computerprogramm und einen elektronisch lesbaren Datenträger gemäß den unabhängigen Ansprüchen. Vorteilhafte Ausgestaltungen ergeben sich aus den Unteransprüchen.This task is solved by a method, a motor vehicle, a computer program and an electronically readable data carrier according to the independent claims. Advantageous refinements result from the subclaims.

Bei einem Verfahren der eingangs genannten Art ist erfindungsgemäß vorgesehen, dass

  • - als Teil der Auswertungsinformation zusätzlich eine die Orientierung des Zielobjekts für wenigstens eine vertikal verlaufende Seite des Zielobjekts an deren unterem Rand in dem Kamerabild anzeigende Orientierungsinformation, insbesondere je nach Bildinhalt des Kamerabildes eine Orientierungslinie oder ein Orientierungspunkt, ermittelt wird, und
  • - für wenigstens einen mittels der Orientierungsinformation und des Rechtecks ermittelten Rechenpunkt des Kamerabildes die dreidimensionale Position eines zugeordneten, auf der Bodenebene liegenden Bodeneckpunkts der Bodenfläche eines das Zielobjekt wenigstens teilweise umschließenden Quaders unter Verwendung eines Aufnahmegeometriemodells der Kamera ermittelt wird und daraus die Ausdehnungsinformation als zumindest die Bodenfläche des Quaders, insbesondere als der das Zielobjekt wenigstens teilweise umschließende Quader, rekonstruiert wird.
In a method of the type mentioned at the outset, the invention provides that
  • - As part of the evaluation information, orientation information indicating the orientation of the target object for at least one vertically extending side of the target object at the lower edge in the camera image, in particular an orientation line or an orientation point depending on the image content of the camera image, is determined, and
  • - for at least one computing point of the camera image determined by means of the orientation information and the rectangle, the three-dimensional position of an assigned floor corner point of the floor surface of a cuboid at least partially enclosing the target object, lying on the floor plane, is determined using a recording geometry model of the camera and from this the expansion information is determined as at least the floor surface of the cuboid, in particular as the cuboid that at least partially encloses the target object, is reconstructed.

Dabei bezieht sich der Begriff der vertikal verlaufenden Seite auf einen im dreidimensionalen Raum zumindest im Wesentlichen vertikalen Verlauf der entsprechenden Seite des Zielobjekts, das bedeutet insbesondere bezüglich des umschließenden Quaders Vorderseite, Rückseite und Lateralseiten, also rechte und linke Seite. Hierbei wird grundsätzlich davon ausgegangen, dass das Zielobjekt durch einen dieses wenigstens teilweise, insbesondere vollständig, umschließenden Quader repräsentiert werden kann, was beispielsweise bei Fahrzeugen, insbesondere Kraftfahrzeugen, denen problemlos eine Oberseite, eine Unterseite und vertikal verlaufende Seiten wie Vorderseite, Rückseite und rechte sowie linke Seite zugeordnet werden können, zweckmäßig möglich ist.The term "vertically running side" refers to an at least essentially vertical course of the corresponding side of the target object in three-dimensional space, which means, in particular with regard to the enclosing cuboid, the front, back and lateral sides, i.e. right and left sides. It is fundamentally assumed that the target object can be represented by a cuboid that at least partially, in particular completely, encloses it, which is the case, for example, in vehicles, in particular motor vehicles, which easily have a top, a bottom and vertical sides such as the front, back and right as well left side can be assigned, is expediently possible.

Anders gesagt kann der das Zielobjekt wenigstens teilweise umschließende Quader, der in der entsprechenden Ausdehnungsinformation insbesondere durch seine acht Eckpunkte, also vier Bodeneckpunkte und vier Dacheckpunkte, beschrieben sein kann, als eine Repräsentation des Zielobjekts angesehen werden, welche die dreidimensionale Position, die dreidimensionale Orientierung und die dreidimensionale Ausdehnung des Zielobjekts in hinreichender Genauigkeit wiedergibt. Hierbei werden das Rechteck und/oder der Quader bevorzugt so bestimmt, dass sie das Zielobjekt engstmöglich umschließen, insbesondere also als kleinstmögliche zweidimensionale beziehungsweise dreidimensionale Begrenzungsbox (Bounding Box)). Dabei sei angemerkt, dass das bevorzugte engstmögliche Umschließen des Quaders im dreidimensionalen Raum nicht zwangsläufig ein engstmögliches Umschließen der Projektion im Kamerabild mit sich bringt, sondern insbesondere auf der Unterseite, beispielsweise bei von den Ecken versetzten Aufsetzpunkten auf der Bodenebene, das Rechteck überstehen kann. Diese Erkenntnis kann bei der Ermittlung des Rechtecks, wie noch erläutert wird, berücksichtigt werden. Darüber hinaus ist es im Übrigen denkbar, das Zielobjekt in manchen Anwendungsfällen enger zu definieren, beispielsweise bei einem Kraftfahrzeug die Außenspiegel auszunehmen, mithin auch nicht mit zu umschließen, da diese nur lokal in einem sehr kleinen Bereich hervorstehen.In other words, the cuboid that at least partially encloses the target object, which can be described in the corresponding extension information in particular by its eight corner points, i.e. four floor corner points and four roof corner points, can be viewed as a representation of the target object, which shows the three-dimensional position, the three-dimensional orientation and reproduces the three-dimensional extent of the target object with sufficient accuracy. Here, the rectangle and/or the cuboid are preferably determined in such a way that they enclose the target object as closely as possible, in particular as the smallest possible two-dimensional or three-dimensional bounding box. It should be noted that the preferred closest possible enclosing of the cuboid in three-dimensional space does not necessarily result in the closest possible enclosing of the projection in the camera image, but rather the rectangle can protrude particularly on the underside, for example at contact points on the floor level that are offset from the corners. This knowledge can be taken into account when determining the rectangle, as will be explained later. In addition, it is also conceivable to define the target object more narrowly in some applications, for example in the case of a motor vehicle, to exclude the exterior mirrors and therefore not to enclose them, since they only protrude locally in a very small area.

Die Auswertungsinformation kann also als Annotation im zweidimensionalen Raum des Kamerabilds verstanden werden. Mithin wird gemäß der vorliegenden Erfindung vorgeschlagen, anstatt mit Annotationen im dreidimensionalen Raum oder lediglich mit Rechtecken im Kamerabild zu arbeiten, die annotierten Rechtecke der Auswertungsinformation um zusätzliche Informationen zu ergänzen, die es ermöglichen, daraus unter Kenntnis einer Bodenebene dreidimensionale Repräsentationen, konkret Bodenflächen oder bevorzugt ganze Quader, der Zielobjekte zu erzeugen. Dabei hat sich gezeigt, dass insbesondere eine Information bezüglich der Orientierung im Kamerabild, also im Zweidimensionalen, leicht zu ermitteln ist und, sofern sie sich auf den unteren Rand des Zielobjektes bezieht, gemeinsam mit dem Rechteck wesentliche Informationen zur Bestimmung von Bodeneckpunkten bereits liefert, vorliegend Rechenpunkte, die durch einfache geometrische Betrachtungen bereits hergeleitet werden können. Zumindest in dem Fall, dass zwei benachbarte, vertikal verlaufende Seiten in dem Kamerabild vollständig sichtbar sind und für zumindest eine dieser Seiten die Orientierungsinformation, insbesondere als Orientierungslinie, ermittelt wurde, ist es möglich, durch einfache geometrische Betrachtungen allein aus der Auswertungsinformation, insbesondere dem Rechteck und der Orientierungsinformation, einem Aufnahmegeometriemodell der Kamera, insbesondere einem einfachen Lochkameramodell, und der Kenntnis über die Bodenebene, auf der das Zielobjekt steht, die komplette, durch vier Bodeneckpunkte beschriebene Bodenfläche des Quaders herzuleiten und gegebenenfalls mit Hilfe des Rechtecks zu einem kompletten Quader zu vervollständigen.The evaluation information can therefore be understood as an annotation in the two-dimensional space of the camera image. Therefore, according to the The present invention proposes that, instead of working with annotations in three-dimensional space or only with rectangles in the camera image, the annotated rectangles of the evaluation information are supplemented with additional information that makes it possible to create three-dimensional representations, specifically floor areas or preferably entire cuboids, based on knowledge of a floor level Create target objects. It has been shown that, in particular, information regarding the orientation in the camera image, i.e. in two dimensions, is easy to determine and, as long as it relates to the lower edge of the target object, together with the rectangle it already provides essential information for determining ground corner points Calculation points that can already be derived through simple geometric considerations. At least in the case that two adjacent, vertically extending sides are completely visible in the camera image and the orientation information, in particular as an orientation line, has been determined for at least one of these sides, it is possible through simple geometric considerations solely from the evaluation information, in particular the rectangle and the orientation information, a recording geometry model of the camera, in particular a simple pinhole camera model, and the knowledge of the floor level on which the target object stands, to derive the complete floor area of the cuboid, described by four floor corner points, and if necessary to complete it into a complete cuboid with the help of the rectangle .

Die Rekonstruktion der gesamten Bodenfläche oder bevorzugt des Gesamtquaders auf Basis des wenigstens einen Bodeneckpunktes, welcher bereits allein basierend auf der Auswertungsinformation, der Bodenebene und dem Aufnahmegeometriemodell ermittelt wurde, erfolgt bevorzugt allein auf Basis der Auswertungsinformation, der Bodenebene und des Aufnahmegeometriemodells, jedoch können zumindest bei Bildinhalten, die nicht perspektivisch zwei vertikal verlaufende Seiten des Zielobjekts vollständig umfassen, auch Zusatzinformationen, insbesondere in den Auswertungsinformationen enthaltene oder diesen zugeordnete Dimensionsinformationen, berücksichtigt werden. Insbesondere kann zunächst die Bodenfläche durch Bestimmung der restlichen Bodeneckpunkte vervollständigt werden, wonach sodann die zu der Bodenfläche parallele obere Begrenzungsfläche des Quaders (im Folgenden Dachfläche), falls gewünscht, unter Verwendung der Bodeneckpunkte, des Rechtecks und des Aufnahmegeometriemodells ermittelt werden, gegebenenfalls unter zusätzlicher und/oder alternativer Berücksichtigung der Dimensionsinformation (beispielsweise, wenn das Zielobjekt in dem Kamerabild oben „abgeschnitten“ ist).The reconstruction of the entire floor area or preferably the entire cuboid on the basis of the at least one floor corner point, which has already been determined based solely on the evaluation information, the floor plane and the recording geometry model, is preferably carried out solely on the basis of the evaluation information, the floor plane and the recording geometry model, but can at least at Image content that does not completely encompass two vertical sides of the target object in perspective, additional information, in particular dimensional information contained in or assigned to the evaluation information, is also taken into account. In particular, the floor area can first be completed by determining the remaining floor corner points, after which the upper boundary surface of the cuboid (hereinafter roof area) parallel to the floor surface can then be determined, if desired, using the floor corner points, the rectangle and the recording geometry model, if necessary with additional and /or alternative consideration of the dimensional information (e.g. if the target object is “cropped” in the camera image above).

Die Auswertungsinformation kann kostengünstig und aufwandsarm erzeugt werden, wobei auch die Herleitung der Bodenfläche, insbesondere des Quaders, als dreidimensionale Repräsentation des Zielobjekts mit wenig Rechenaufwand, also kostengünstig umsetzbar, möglich ist und zudem eine robuste Umsetzung ermöglicht. Mithin wird auf einfache, aufwandsarme und robust umsetzbare Art und Weise die Bestimmung von Position, Orientierung und Größe des Zielobjekts im dreidimensionalen Raum, beschrieben durch den die Bodenfläche oder den gesamten Quader als Ausdehnungsinformation, ermöglicht, indem als Grundlage eine Orientierungsinformation bereits im Kamerabild betrachtet wird.The evaluation information can be generated cost-effectively and with little effort, and the derivation of the floor area, in particular the cuboid, as a three-dimensional representation of the target object is possible with little computational effort, i.e. can be implemented inexpensively, and also enables a robust implementation. The determination of the position, orientation and size of the target object in three-dimensional space, described by the floor area or the entire cuboid as extension information, is therefore made possible in a simple, low-effort and robust manner by considering orientation information in the camera image as a basis .

Die Kamera, bei welcher es sich beispielsweise um eine Frontkamera an einem Kraftfahrzeug als Egoobjekt handeln kann, liefert ein Kamerabild der erfassten, wenigstens ein Zielobjekt enthaltenden Szene, beispielsweise aus dem Straßenverkehr bei der Betrachtung von Fahrzeugen als Zielobjekte. Dabei kann vorzugsweise der Rollwinkel der Kamera relativ zum Boden beziehungsweise zum Egoobjekt, insbesondere Kraftfahrzeug, zumindest im Wesentlichen null betragen. Dies ermöglicht es auf besonders einfache Art und Weise, die Vertikale in dem zweidimensionalen Kamerabild zu identifizieren. Vorzugsweise werden die Kamerabilder, wie grundsätzlich bekannt, entzerrt, sodass als Aufnahmegeometriemodell ein Lochkameramodell angewendet werden kann.The camera, which can be, for example, a front camera on a motor vehicle as an ego object, provides a camera image of the captured scene containing at least one target object, for example from road traffic when viewing vehicles as target objects. The roll angle of the camera relative to the ground or to the ego object, in particular a motor vehicle, can preferably be at least essentially zero. This makes it particularly easy to identify the vertical in the two-dimensional camera image. Preferably, the camera images are rectified, as is generally known, so that a pinhole camera model can be used as the recording geometry model.

Die Kamera ist intrinsisch und extrinsisch kalibriert. Die intrinsische Kalibrierung der Kamera ermöglicht mittels des Aufnahmegeometriemodells die Projektion von Punkten im dreidimensionalen Kamerakoordinatensystem in das „entzerrte“ Kamerabild. Die extrinsische Kalibrierung ermöglicht die Transformation von Punkten im Kamerakoordinatensystem in das Egoobjektkoordinatensystem, insbesondere das Fahrzeugkoordinatensystem, und umgekehrt. Dabei können gegebenenfalls weitere an dem Egoobjekt, insbesondere in dem Kraftfahrzeug, vorgesehene Sensoren, insbesondere Abstandssensoren wie Radarsensoren und/oder Lidarsensoren und/oder Laserscanner, vorzugsweise ebenso kalibriert sein, sodass jeweils die Transformation von Punkten im jeweiligen Sensorkoordinatensystem in das Egoobjektkoordinatensystem und umgekehrt möglich ist. Die Egoobjektgeometrie ist bekannt, sodass eine Beschreibung einer (Referenz-) Bodenebene angegeben werden kann, insbesondere bei stillstehendem Egoobjekt.The camera is intrinsically and extrinsically calibrated. The intrinsic calibration of the camera enables the projection of points in the three-dimensional camera coordinate system into the “equalized” camera image using the recording geometry model. Extrinsic calibration enables the transformation of points in the camera coordinate system into the ego object coordinate system, in particular the vehicle coordinate system, and vice versa. In this case, additional sensors provided on the ego object, in particular in the motor vehicle, in particular distance sensors such as radar sensors and/or lidar sensors and/or laser scanners, can preferably also be calibrated, so that the transformation of points in the respective sensor coordinate system into the ego object coordinate system and vice versa is possible . The ego object geometry is known, so that a description of a (reference) ground plane can be given, especially when the ego object is stationary.

Die Bodenebene wird dabei vorzugsweise möglichst genau so bestimmt, dass sie mit der Grundfläche des jeweiligen Zielobjekts, auf der dieses also steht, übereinstimmt. Hierbei kann im Rahmen der vorliegenden Erfindung vorgesehen sein, dass die Bodenebene unter dem Zielobjekt unter Verwendung der extrinsischen Kalibrierung der Kamera mittels der Annahme gleicher Lage wie die Bodenebene unter dem Egoobjekt bestimmt wird, wobei, insbesondere bei möglichen Nick- und/oder Wankbewegungen, auch Lagedaten eines Lagesensors und/oder andere Sensordaten berücksichtigt werden können, um egoobjektseitige Veränderungen der Lage der Kamera zur Bodenebene zu berücksichtigen. Hierbei würden jedoch Veränderungen der Bodenebene vom Egoobjekt zu Zielobjekten in seiner Umgebung nicht berücksichtigt werden beziehungsweise als klein angenommen werden. Mithin ist es im Rahmen der vorliegenden Erfindung bevorzugt, für jedes Zielobjekt eine individuelle Bodenebene zu ermitteln, die den Boden, auf dem das Zielobjekt steht, möglichst genau beschreibt. Dies ist immer dann von Vorteil, wenn der gesamte Boden in der Umgebung sich nicht durch eine einzige Ebene genau genug annähern lässt, beispielsweise bei welligen Straßenverläufen oder abzweigenden Rampen. In diesem Fall würde eine Vernachlässigbarkeit der Veränderungen der Bodenebene im Vergleich zur (Referenz-) Bodenebene des Egoobjekts nicht mehr zweckmäßig möglich sein. Diesbezüglich kann eine Ausgestaltung der vorliegenden Erfindung vorzugsweise vorsehen, dass die Bodenebene unter dem Zielobjekt, wiederum unter Verwendung der extrinsischen Kalibrierung der Kamera, aus Sensordaten eines weiteren, ebenso extrinsisch mit dem Egoobjekt registrierten Abstandsensors, insbesondere eines Laserscanners und/oder Radarsensors und/oder Lidarsensors, ermittelt wird. Über derartige Abstandssensoren lässt sich mit bekannten Methoden der Verlauf des Bodens um das Egoobjekt herum abtasten und entsprechend verwenden, indem der abgetastete Bodenverlauf beispielsweise um das Zielobjekt herum zur Bestimmung der Bodenebene herangezogen wird. Zusätzlich oder alternativ können zur Ermittlung von zielobjektspezifischen Bodenebenen auch insbesondere in dem Egoobjekt, beispielsweise einem Navigationssystem des Kraftfahrzeugs, vorliegende Kartendaten verwendet werden, die insbesondere die Topologie in der Umgebung des Egoobjekts, insbesondere Kraftfahrzeugs, beschreiben. Für Navigationsumgebungen, insbesondere Parkumgebungen, wurde in diesem Zusammenhang auch bereits vorgeschlagen, digitale Kartendaten in ihnen betriebenen Kraftfahrzeugen bereitzustellen.The ground level is preferably determined as accurately as possible so that it corresponds to the base area of the respective target object on which it stands. Within the scope of the present invention it can be provided that that the ground level under the target object is determined using the extrinsic calibration of the camera by assuming the same position as the ground level under the ego object, whereby, particularly in the case of possible pitching and/or rolling movements, position data from a position sensor and/or other sensor data are also taken into account in order to take into account changes in the position of the camera relative to the ground level on the ego object side. However, changes in the ground level from the ego object to target objects in its environment would not be taken into account or would be assumed to be small. Therefore, within the scope of the present invention, it is preferred to determine an individual ground level for each target object, which describes the ground on which the target object stands as precisely as possible. This is always an advantage when the entire ground in the area cannot be approximated accurately enough using a single level, for example in the case of undulating roads or branching ramps. In this case, it would no longer be practical to neglect the changes in the ground plane compared to the (reference) ground plane of the ego object. In this regard, an embodiment of the present invention can preferably provide that the ground plane under the target object, again using the extrinsic calibration of the camera, from sensor data of a further distance sensor that is also registered extrinsically with the ego object, in particular a laser scanner and/or radar sensor and/or lidar sensor , is determined. Using such distance sensors, the course of the ground around the ego object can be scanned using known methods and used accordingly, for example by using the scanned ground course around the target object to determine the ground level. Additionally or alternatively, to determine target object-specific ground levels, map data present in particular in the ego object, for example a navigation system of the motor vehicle, can be used, which in particular describes the topology in the surroundings of the ego object, in particular the motor vehicle. In this context, it has already been proposed for navigation environments, in particular parking environments, to provide digital map data in motor vehicles operated in them.

Wie bereits erwähnt, wird als Aufnahmegeometriemodell bevorzugt ein Lochkameramodell verwendet, welches bei intrinsischer Kalibrierung und entsprechender Entzerrung der Kamerabilder eine äußerst einfache, wenig Rechenaufwand benötigende Möglichkeit darstellt, Strahlen zu bestimmen, entlang derer im Kamerabild an einem bestimmten Bildpunkt (Pixel) liegende Merkmale/Punkte liegen. Zudem werden Geraden im dreidimensionalen Raum auf Geraden im Bild abgebildet, was im Übrigen auch dazu führt, dass das Rechteck einen präzisieren Eindruck des Quaders liefert. As already mentioned, a pinhole camera model is preferably used as the recording geometry model, which, with intrinsic calibration and corresponding equalization of the camera images, represents an extremely simple way of determining rays, which require little computational effort, along which features/points lie at a specific image point (pixel) in the camera image lay. In addition, straight lines in three-dimensional space are mapped onto straight lines in the image, which also means that the rectangle provides a more precise impression of the cuboid.

Erfindungsgemäß umfasst die Auswertungsinformation, die durch den Auswertungsalgorithmus bestimmt wird, zumindest ein Rechteck, dass die Projektion des das Objekt möglichst eng umgebenden Quaders in das Kamerabild möglichst exakt einschließt. Dabei sei an dieser Stelle darauf hingewiesen, dass das Rechteck nicht zwingend die zweidimensionale, sichtbare Silhouette des Zielobjekts präzise einschließen muss, sondern in Ausführungsbeispielen auch größer gewählt sein kann, insbesondere im Bereich der Unterkante des Rechtecks, um beispielsweise bei Fahrzeugen als Zielobjekten den Hub der entlang der Längsrichtung aber versetzten Räder auszugleichen.According to the invention, the evaluation information, which is determined by the evaluation algorithm, comprises at least one rectangle that encloses the projection of the cuboid surrounding the object as closely as possible into the camera image as accurately as possible. It should be noted at this point that the rectangle does not necessarily have to precisely enclose the two-dimensional, visible silhouette of the target object, but in exemplary embodiments it can also be chosen to be larger, especially in the area of the lower edge of the rectangle, in order, for example, to increase the stroke of vehicles as target objects to compensate for wheels that are offset along the longitudinal direction.

Zweckmäßigerweise kann dann, wenn das Zielobjekt im Kamerabild teilweise verdeckt ist, mittels des Auswertungsalgorithmus eine Abschätzung der tatsächlichen Abmessungen des Rechtecks erfolgen. Eine derartige Abschätzung kann bei teilweiser Verdeckung auch bezüglich anderer Teilinformationen der Auswertungsinformation vorgenommen werden.If the target object is partially obscured in the camera image, the evaluation algorithm can be used to estimate the actual dimensions of the rectangle. Such an estimate can also be made with regard to other partial information of the evaluation information if it is partially obscured.

Zweckmäßig und mit besonderem Vorteil wird als Teil der Auswertungsinformation auch eine die Lage wenigstens einer vertikal verlaufenden, in dem Kamerabild sichtbaren Seite des Zielobjekts beschreibende Trenninformation, insbesondere eine vertikal verlaufende Trennlinie zwischen unterschiedlichen vertikal verlaufenden Seiten des Zielobjekts in dem Kamerabild, ermittelt. Die Trenninformation zeigt also zum einen an, wie viele vertikal verlaufende Seiten des Zielobjekts in dem Kamerabild detektiert wurden, zum anderen aber auch, in welchem Bereich des Kamerabilds, insbesondere also des Rechtecks, diese Seiten liegen, sodass die Trenninformation also bei mehreren sichtbaren, vertikal verlaufenden Seiten des Zielobjekts eine Aufteilung des Rechtecks dahingehend erlaubt, wo welche der vertikal verlaufenden Seiten des Zielobjekts zu finden ist. Dabei wird mit besonderem Vorteil eine Trennlinie als Trenninformation ermittelt, die vertikal im Kamerabild zumindest durch das Rechteck verläuft und dieses in Bereiche aufteilt, in denen jeweils eine der vertikal verlaufenden Seiten des Zielobjekts zu finden ist. Anders gesagt kann also eine vertikale, gerade Trennlinie ermittelt werden, die bei mehr als einer vertikal verlaufenden, in dem Kamerabild sichtbaren Seite des Zielobjekts das Rechteck in unterschiedliche Teile beziehungsweise Bereiche teilt, die jeweils genau eine vertikal verlaufende Seite des Zielobjekts beinhalten. Ist nur eine vertikal verlaufende Seite des Zielobjekts sichtbar, stimmt die Trennlinie zweckmäßigerweise mit der rechten oder linken Kante des Rechtecks überein. Mit anderen Worten kann bei nur einer in dem Kamerabild sichtbaren vertikal verlaufenden Seite des Zielobjekts als Trenninformation die Trennlinie als eine vertikale Kante des Rechtecks bestimmt werden.Appropriately and with particular advantage, separation information describing the position of at least one vertically extending side of the target object visible in the camera image, in particular a vertically extending dividing line between different vertically extending sides of the target object in the camera image, is also determined as part of the evaluation information. The separation information therefore shows, on the one hand, how many vertically extending sides of the target object were detected in the camera image, but on the other hand it also shows in which area of the camera image, in particular the rectangle, these sides lie, so that the separation information is vertical when there are several visible ones running sides of the target object allows the rectangle to be divided as to where which of the vertically running sides of the target object can be found. It is particularly advantageous to determine a dividing line as separating information, which runs vertically in the camera image at least through the rectangle and divides it into areas in which one of the vertically extending sides of the target object can be found. In other words, a vertical, straight dividing line can be determined which, if there is more than one vertical side of the target object visible in the camera image, divides the rectangle into different parts or areas, each of which contains exactly one vertical side of the target object. If only one vertical side of the target object is visible, the dividing line is conveniently aligned with the right or left edge of the rectangle. With others In other words, if only one vertical side of the target object is visible in the camera image, the dividing line can be determined as a vertical edge of the rectangle as separating information.

In diesem Kontext ist es zudem besonders vorteilhaft, wenn für wenigstens eine vertikal verlaufende Seite des Zielobjekts, insbesondere wenigstens die wenigstens eine Seite, der die Orientierungsinformation zugeordnet ist, als Teil der Auswertungsinformation eine Seitenklassifizierung in Vorderseite, Rückseite oder Lateralseite, insbesondere rechte Seite oder linke Seite, ermittelt wird. Insbesondere kann für jede durch die Trenninformation beschriebene, in dem Kamerabild sichtbare, vertikal verlaufende Seite des Zielobjekts eine Seitenklassifizierung als Vorderseite, Rückseite, rechte oder linke Seite erfolgen, wobei es auch denkbar ist, rechte Seite und linke Seite als Lateralseite zusammenzufassen. Gemeinsam mit der Trenninformation wird bei mehreren sichtbaren, vertikal verlaufenden Seiten des Zielobjekts mithin klar, welcher Teil des Rechtecks welche wie zu klassifizierende Seite zeigt. Dabei sei darauf hingewiesen, dass grundsätzlich die Zuordnung einer Seite beziehungsweise eines Bereichs des Rechtecks zu einer Seitenklassifizierung ausreichend ist, da sich benachbarte Seiten, die vertikal verlaufen, unter der Annahme, dass das Zielobjekt mit der Bodenseite auf der Bodenebene steht, daraus erschließen. Beispielsweise kann also angenommen werden, dass ein Fahrzeug als Zielobjekt mit den Rädern auf dem Boden steht.In this context, it is also particularly advantageous if for at least one vertically extending side of the target object, in particular at least the at least one side to which the orientation information is assigned, a page classification into front, back or lateral side, in particular right side or left, is part of the evaluation information Page, is determined. In particular, for each vertical side of the target object described by the separation information and visible in the camera image, a side classification can take place as a front, back, right or left side, although it is also conceivable to combine the right side and left side as the lateral side. Together with the separation information, if there are several visible, vertical sides of the target object, it becomes clear which part of the rectangle shows which side and how it should be classified. It should be noted that, in principle, assigning one side or an area of the rectangle to a side classification is sufficient, since adjacent sides that run vertically can be identified from this, assuming that the target object has its bottom side on the ground level. For example, it can be assumed that a vehicle as a target object is standing with its wheels on the ground.

Grundsätzlich umfasst im Rahmen der vorliegenden Erfindung die bestimmte Auswertungsinformation auch die Orientierungsinformation, insbesondere entweder als Orientierungslinie oder als Orientierungspunkt, wobei sich eine Orientierungslinie zweckmäßigerweise dann ergibt, wenn zwei vertikal verlaufende Seiten des Zielobjekts perspektivisch in dem Kamerabild sichtbar sind und ein Orientierungspunkt genutzt wird, wenn nur eine vertikal verlaufende Seite des Zielobjekts in dem Kamerabild sichtbar ist (die Orientierungslinie degeneriert dann sozusagen zu dem Orientierungspunkt). Anders gesagt kann immer dann, wenn in dem Kamerabild eine vertikal verlaufende Seite des Zielobjekts, insbesondere eine Lateralseite, perspektivisch sichtbar ist, die Orientierungslinie als schräge Linie entlang des sichtbaren unteren Randes der Seite des Zielobjekts bestimmt werden, insbesondere der rechten oder linken Seite des Zielobjekts. Bei Fahrzeugen als Zielobjekte kann die Orientierungslinie mithin entlang der Berührpunkte der Räder mit dem Boden verlaufen. Ist nur eine vertikal verlaufende Seite sichtbar, insbesondere nur die Rückseite oder die Vorderseite, degeneriert die Orientierungslinie zu einem Punkt. Anders gesagt kann also vorgesehen sein, dass die Orientierungsinformation bei mehr als einer in dem Kamerabild sichtbaren, vertikal verlaufenden Seite des Zielobjekts als Orientierungslinie entlang des unteren Randes einer der perspektivisch in dem Kamerabild sichtbaren Seiten, insbesondere einer Lateralseite, des Zielobjekts ermittelt wird, bei einem Fahrzeug als Zielobjekt insbesondere als den unteren Rand von Rädern des Fahrzeugs berührende Orientierungslinie. Ferner kann vorgesehen sein, dass bei nur einer in dem Kamerabild sichtbaren vertikal verlaufenden Seite des Zielobjekts die Orientierungsinformation als ein eine in die Bildebene verlaufende Orientierung anzeigender Orientierungspunkt bestimmt wird.Basically, in the context of the present invention, the specific evaluation information also includes the orientation information, in particular either as an orientation line or as an orientation point, with an orientation line expediently resulting when two vertical sides of the target object are visible in perspective in the camera image and an orientation point is used when only one vertical side of the target object is visible in the camera image (the orientation line then degenerates, so to speak, into the orientation point). In other words, whenever a vertical side of the target object, in particular a lateral side, is perspectively visible in the camera image, the orientation line can be determined as an oblique line along the visible lower edge of the side of the target object, in particular the right or left side of the target object . In the case of vehicles as target objects, the orientation line can therefore run along the points of contact between the wheels and the ground. If only one vertical side is visible, especially only the back or front, the orientation line degenerates into a point. In other words, it can be provided that the orientation information is determined as an orientation line along the lower edge of one of the sides of the target object visible in the camera image, in particular a lateral side, in one Vehicle as a target object, in particular as an orientation line touching the lower edge of the vehicle's wheels. Furthermore, it can be provided that if only one vertically extending side of the target object is visible in the camera image, the orientation information is determined as an orientation point indicating an orientation extending into the image plane.

In vorteilhafter Weiterbildung der vorliegenden Erfindung kann als Teil der Auswertungsinformation auch eine Klasse des Zielobjekts ermittelt werden, der beispielsweise eine wenigstens eine Erwartungsabmessung eines Zielobjekts der Klasse beschreibende Dimensionsinformation zugeordnet sein kann. Die Klasse des Zielobjekts beschreibt beispielsweise einen Typ des Zielobjekts. Beispielsweise kann die, im Übrigen auch unabhängig von der Trenninformation nützlich bestimmbare, Klasseninformation bei Fahrzeugen als Zielobjekte wenigstens eine Zuordnung zu wenigstens einer Zweiradklasse und/oder wenigstens einer Personenkraftwagenklasse und/oder wenigstens einer Lastwagenklasse und/oder wenigstens einer Busklasse umfassen. Dabei kann jedoch mit besonderem Vorteil auch eine detailliertere Unterteilung in Klassen nach der tatsächlichen Größe und Form der Fahrzeuge erfolgen. Beispielsweise kann bezüglich Personenkraftwagen eine Betrachtung von Klassen wie „Pkw, obere Mittelklasse, Kombinationskraftwagen“, „Pkw, Kleinwagen, Kombi-Limousine“, „Pkw, Oberklasse, SUV“ und dergleichen erfolgen. Allen diesen Klassen beziehungsweise Typen kann zweckmäßigerweise eine Dimensionsinformation zugeordnet sein, die insbesondere erwartete Ausdehnungen (Erwartungsabmessungen) entsprechender Zielobjekte beschreibt, beispielsweise als Form einer erwarteten Breite und/oder einer erwarteten Länge und/oder einer erwarteten Höhe. Die Dimensionsinformation kann ferner auch Intervalle für zulässige Abmessungen in der entsprechenden Klasse des Zielobjekts enthalten, worauf im Folgenden noch genauer eingegangen werden wird.In an advantageous development of the present invention, a class of the target object can also be determined as part of the evaluation information, to which, for example, dimensional information describing at least one expected dimension of a target object of the class can be assigned. For example, the class of the target object describes a type of the target object. For example, the class information for vehicles as target objects, which can also be usefully determined independently of the separation information, can include at least an assignment to at least one two-wheeler class and/or at least one passenger car class and/or at least one truck class and/or at least one bus class. However, a more detailed division into classes based on the actual size and shape of the vehicles can also be carried out with particular advantage. For example, with regard to passenger cars, classes such as “passenger car, upper middle class, combination car”, “passenger car, small car, station wagon”, “passenger car, upper class, SUV” and the like can be considered. All of these classes or types can expediently be assigned dimensional information, which in particular describes expected dimensions (expected dimensions) of corresponding target objects, for example in the form of an expected width and/or an expected length and/or an expected height. The dimensional information can also contain intervals for permissible dimensions in the corresponding class of the target object, which will be discussed in more detail below.

Bei Vorliegen einer Seitenklassifizierung in der Auswertungsinformation kann zweckmäßigerweise vorgesehen sein, dass Seiten des Quaders in der Ausdehnungsinformation entsprechenden Seiten des Zielobjekts zugeordnet werden. Wird beispielsweise der Quader durch seine Eckpunkte (Bodeneckpunkte und Dacheckpunkte) beschrieben, kann mithilfe der Zuordnungen in der Seitenklassifizierung bestimmt werden, welcher der Bodeneckpunkte jeweils dem vorderen/hinteren linken/rechten unteren Eckpunkt des Zielobjekts entspricht. Eine entsprechende Zuordnung kann man für Dacheckpunkte zu den vorderen/hinteren linken/rechten oberen Eckpunkten erhalten. Damit ergeben sich unmittelbar die Zuordnungen von Seiten des Quaders zu Seiten des Zielobjekts. Dies ist beispielsweise dann nützlich, wenn bei Fahrzeugen als Zielobjekten Fahrtrichtungen und/oder Fahrtmöglichkeiten abgeschätzt werden sollen, da dann die Orientierung einer entsprechenden Ausrichtung zugeordnet werden kann.If there is a page classification in the evaluation information, it can expediently be provided that pages of the cuboid in the extent information are assigned to corresponding pages of the target object. For example, if the cuboid is described by its vertices (floor vertices and roof vertices), the assignments in the side classification can be used to determine which of the ground vertices corresponds to the front/rear left/lower right corner of the target object. One Corresponding assignment can be obtained for roof vertices to the front/rear left/right upper corner points. This results in immediate assignments from the side of the cuboid to the side of the target object. This is useful, for example, when driving directions and/or travel options are to be estimated for vehicles as target objects, since the orientation can then be assigned to a corresponding orientation.

Wird die Auswertungsinformation die Trenninformation umfassend ermittelt, kann auf einfache Art und Weise eine Fallunterscheidung erfolgen, wie die Ermittlung der Ausdehnungsinformation genau zu erfolgen hat. Dabei zeigt in einem ersten Fall die Trenninformation an, dass in dem Rechteck zwei vertikal verlaufende Seiten des Zielobjekts sichtbar sind. Mit anderen Worten trennt die Trennlinie das Rechteck in zwei Rechtecke mit jeweils positivem Flächeninhalt. Dann lässt sich die komplette Bodenfläche und somit der komplette Quader allein unter Verwendung des Rechtecks, der Orientierungslinie der Orientierungsinformation, der Bodenebene und des Aufnahmegeometriemodells ermitteln, was besonders vorteilhaft ist, da keine externen Informationen oder Informationen aus anderen Zeitschritten eingehen müssen. In einem zweiten Fall, der sich wie der erste Fall auf vollständig im Kamerabild enthaltene Zielobjekte bezieht, ist nur eine vertikal verlaufende Seite des Zielobjekts in dem Kamerabild sichtbar, sodass im konkreten Fall einer Trennlinie diese mit der linken oder rechten Kante des Rechtecks übereinstimmt. In einem solchen Fall kann, wie erläutert werden wird, zweckmäßig auf die bereits erwähnte Dimensionsinformation zurückgegriffen werden, welche auch zumindest teilweise aus Analysen wenigstens eines vorangegangenen Zeitschritts, in dem mehr vertikal verlaufende Seiten des Zielobjekts sichtbar waren, stammen können.If the evaluation information comprehensively determines the separation information, a case distinction can be made in a simple manner as to exactly how the extent information is to be determined. In a first case, the separation information indicates that two vertical sides of the target object are visible in the rectangle. In other words, the dividing line separates the rectangle into two rectangles, each with a positive area. Then the complete floor area and thus the complete cuboid can be determined using only the rectangle, the orientation line of the orientation information, the floor plane and the recording geometry model, which is particularly advantageous since no external information or information from other time steps has to be included. In a second case, which, like the first case, relates to target objects completely contained in the camera image, only a vertical side of the target object is visible in the camera image, so that in the specific case of a dividing line, this corresponds to the left or right edge of the rectangle. In such a case, as will be explained, it is expedient to rely on the dimensional information already mentioned, which can also come at least in part from analyzes of at least one previous time step in which more vertical sides of the target object were visible.

In konkreter, vorteilhafter Ausgestaltung der vorliegenden Erfindung kann mithin vorgesehen sein, dass bei zwei in dem Kamerabild sichtbare, vertikal verlaufende Seiten des Zielobjekts anzeigender Trenninformation (Fall 1) und auf eine der sichtbaren Seiten, insbesondere eine Lateralseite, bezogener Orientierungslinie als Orientierungsinformation zur Bestimmung einer durch das Zielobjekt auf dem Boden abgedeckten Bodenfläche

  • - ein erster Rechenpunkt als Schnittpunkt der Orientierungslinie mit der unteren Kante des Rechtecks in dem Kamerabild und ein zweiter Rechenpunkt als Schnittpunkt der Orientierungslinie mit der der Seite, auf die die Orientierungslinie bezogen ist, gemäß der Trenninformation zugeordneten vertikalen Kante des Rechtecks ermittelt werden,
  • - mittels des Aufnahmegeometriemodells für den ersten und den zweiten Rechenpunkt Strahlen, auf denen die Rechenpunkte liegen, ermittelt werden und die jeweiligen Schnittpunkte der Strahlen mit der Bodenebene als erste und zweite Bodeneckpunkte im dreidimensionalen Raum bestimmt werden,
  • - eine senkrecht zu einer den ersten und den zweiten Bodeneckpunkt verbindenden Verbindungsgeraden in der Bodenebene liegende, durch den ersten Bodeneckpunkt verlaufende Suchgerade sowie ein auf der Suchgerade liegender dritter Bodeneckpunkt, dessen aufgrund des Aufnahmegeometriemodells bestimmte Projektion in das Kamerabild auf der der Kante der Seite, auf die die Orientierungslinie bezogen ist, gegenüberliegenden vertikalen Kante des Rechtecks in dem Kamerabild liegt, im dreidimensionalen Raum bestimmt werden, und
  • - ein vierter, die rechteckförmige Bodenfläche vervollständigender Bodeneckpunkt aus dem ersten, zweiten und dritten Bodeneckpunkt bestimmt wird, insbesondere durch Addition der dem dritten und dem zweiten Bodeneckpunkt zugehörigen Vektoren und Subtraktion des dem ersten Bodeneckpunkt zugehörigen Vektors.
In a concrete, advantageous embodiment of the present invention, it can therefore be provided that with two vertically extending sides of the target object visible in the camera image (case 1) and an orientation line related to one of the visible sides, in particular a lateral side, as orientation information for determining a surface covered by the target object on the ground
  • - a first calculation point is determined as the intersection of the orientation line with the lower edge of the rectangle in the camera image and a second calculation point is determined as the intersection of the orientation line with the vertical edge of the rectangle assigned to the side to which the orientation line relates according to the separation information,
  • - using the recording geometry model for the first and second calculation points, rays on which the calculation points lie are determined and the respective intersection points of the rays with the ground plane are determined as first and second ground corner points in three-dimensional space,
  • - a search line lying perpendicular to a connecting line in the floor plane connecting the first and second floor corner points and running through the first floor corner point, as well as a third floor corner point lying on the search line, whose projection into the camera image on the edge of the page is determined based on the recording geometry model which is related to the orientation line, lies opposite vertical edge of the rectangle in the camera image, can be determined in three-dimensional space, and
  • - a fourth floor corner point completing the rectangular floor area is determined from the first, second and third floor corner points, in particular by adding the vectors associated with the third and second floor corner points and subtracting the vector associated with the first floor corner point.

Dabei sei an dieser Stelle noch angemerkt, dass dann, wenn Orientierungslinien für beide Seiten bestimmt worden sind, diese sich idealer Weise am ersten Rechenpunkt schneiden sollten. Dies kann gegebenenfalls auch herbeigeführt werden, beispielsweise durch, insbesondere bezüglich der Robustheit der Ermittlung der Orientierungslinien gewichtete, Mittelung und folgende Parallelverschiebung der Orientierungslinien. Auch kann vorgesehen sein, dass der Auswertungsalgorithmus beide Orientierungslinien schon entsprechend bestimmt. Schneiden sich die Orientierungslinien im ersten Rechenpunkt, ist ein dritter Rechenpunkt analog dem zweiten Rechenpunkt bestimmbar, der unmittelbar den dritten Bodeneckpunkt analog zum ersten und zweiten Bodeneckpunkt liefert und mit dem unmittelbar der vierte Bodeneckpunkt herleitbar ist. Das oben beschriebene Vorgehen mit einer Suchgeraden kann dann plausibilisierend eingesetzt werden. Allerdings hat sich für den Anwendungsfall von Fahrzeugen als Zielobjekte gezeigt, dass für Lateralseiten, aufgrund der Bestimmbarkeit der Aufstandspunkte der Räder, sich die Orientierungsinformation deutlich robuster und einfacher bestimmen lässt als für, auch deutlich kürzere und den Boden nicht berührende, Rück- oder Vorderseiten, sodass es dann bevorzugt ist, eine Orientierungslinie als Orientierungsinformation zu ermitteln, die bevorzugt auf eine Lateralseite bezogen ist.It should be noted at this point that if orientation lines have been determined for both sides, they should ideally intersect at the first calculation point. If necessary, this can also be brought about, for example, by averaging and subsequent parallel displacement of the orientation lines, weighted in particular with regard to the robustness of the determination of the orientation lines. It can also be provided that the evaluation algorithm already determines both orientation lines accordingly. If the orientation lines intersect at the first calculation point, a third calculation point can be determined analogous to the second calculation point, which directly supplies the third floor corner point analogous to the first and second floor corner points and with which the fourth floor corner point can be derived directly. The procedure described above with a search line can then be used to check plausibility. However, for the application of vehicles as target objects, it has been shown that for lateral sides, due to the fact that the contact points of the wheels can be determined, the orientation information can be determined much more robustly and easily than for back or front sides, which are also significantly shorter and do not touch the ground. so that it is then preferred to determine an orientation line as orientation information, which is preferably related to a lateral side.

Dieser Fall nur einer verwendeten Orientierungslinie der Orientierungsinformation soll nun nochmals genauer erläutert werden.This case of only one orientation line used for the orientation information will now be explained in more detail.

Dabei werden zunächst Schnittpunkte der Orientierungslinie mit Kanten des Rechtecks bestimmt, wobei der Schnittpunkt der Orientierungslinie mit der Unterkante des Rechtecks einen ersten Rechenpunkt bildet, der Schnittpunkt der Orientierungslinie mit der Seitenkante des Rechtecks, die von der Orientierungslinie geschnitten wird (und somit auch der vertikal verlaufenden, im Kamerabild sichtbaren Seite des Zielobjekts, der sie zugeordnet ist, zugeordnet ist) einen zweiten Rechenpunkt bildet. Gemäß dem Aufnahmegeometriemodell, insbesondere im bevorzugten Beispiel des Lochkameramodells, liegen alle Punkte im dreidimensionalen Kamerakoordinatensystem, die auf einen Punkt im Kamerabild projiziert werden, auf einem Strahl. Dieser lässt sich mithilfe des Aufnahmegeometriemodells aufgrund der intrinsischen Kamerakalibrierung berechnen. So ergibt sich ein erster Strahl für den ersten Rechenpunkt und ein zweiter Strahl für den zweiten Rechenpunkt. Die Schnittpunkte dieser Strahlen mit der Bodenebene im dreidimensionalen Kamerakoordinatensystem können nun berechnet werden und bilden den ersten Bodeneckpunkt (Schnittpunkt des ersten Strahls und der Bodenebene) und den zweiten Bodeneckpunkt (Schnittpunkt des zweiten Strahls und der Bodenebene). Nun existiert eine eindeutige Suchgerade, die in der Bodenebene und durch den ersten Bodeneckpunkt verläuft und einen rechten Winkel mit der Strecke, die den ersten Bodeneckpunkt und den zweiten Bodeneckpunkt verbindet, bildet. Auf der Suchgeraden wiederum gibt es einen eindeutigen dritten Bodeneckpunkt, dessen Projektion in das Kamerabild auf der Geraden liegt, die durch Verlängerung der Seitenkante des Rechtecks gebildet wird, die nicht von der Orientierungslinie geschnitten wird. Existieren keine Schnittpunkte des ersten und des zweiten Strahls mit der Bodenebene, kann diese korrigiert werden, insbesondere durch Anhebung des Horizonts.First, intersection points of the orientation line with edges of the rectangle are determined, whereby the intersection of the orientation line with the lower edge of the rectangle forms a first calculation point, the intersection of the orientation line with the side edge of the rectangle, which is intersected by the orientation line (and thus also the vertical one , the side of the target object visible in the camera image to which it is assigned) forms a second calculation point. According to the recording geometry model, in particular in the preferred example of the pinhole camera model, all points in the three-dimensional camera coordinate system that are projected onto a point in the camera image lie on a ray. This can be calculated using the recording geometry model based on the intrinsic camera calibration. This results in a first ray for the first calculation point and a second ray for the second calculation point. The intersections of these rays with the ground plane in the three-dimensional camera coordinate system can now be calculated and form the first ground vertex (intersection of the first ray and the ground plane) and the second ground vertex (intersection of the second ray and the ground plane). Now there is a clear search line that runs in the ground plane and through the first ground corner point and forms a right angle with the line that connects the first ground corner point and the second ground corner point. On the search line, in turn, there is a clear third ground corner point, whose projection into the camera image lies on the line formed by extending the side edge of the rectangle, which is not intersected by the orientation line. If there are no intersections of the first and second rays with the ground plane, this can be corrected, in particular by raising the horizon.

Dabei sei an dieser Stelle noch angemerkt, dass dann, wenn der dritte Bodeneckpunkt so bestimmt wird, dass seine Projektion in das Kamerabild auf einer Verlängerung der entsprechenden Kante außerhalb des Rechtecks liegt, die Bodenebene und/oder die Orientierungslinie und/oder das Rechteck und/oder der erste und/oder der zweite Rechenpunkt derart korrigiert werden können, dass die Projektion auf der Kante zu liegen kommt. Hierbei kann beispielsweise die Information genutzt werden, in welcher Richtung außerhalb des Rechtecks die Projektion liegt, und/oder es können Optimierungsverfahren verwendende Korrekturalgorithmen eingesetzt werden, um durch minimalst mögliche Anpassungen ein plausibles Ergebnis zu erzielen.It should be noted at this point that if the third ground corner point is determined in such a way that its projection into the camera image lies on an extension of the corresponding edge outside the rectangle, the ground plane and/or the orientation line and/or the rectangle and/or or the first and/or the second calculation point can be corrected in such a way that the projection comes to lie on the edge. Here, for example, the information can be used as to the direction in which the projection lies outside the rectangle, and/or correction algorithms using optimization methods can be used in order to achieve a plausible result through minimal possible adjustments.

Liegt der dritte Bodeneckpunkt auf der Seitenkante des Rechtecks, die nicht von der Orientierungslinie geschnitten wird, wird er als korrekt bestimmter dritter Bodeneckpunkt angenommen. Nach Berechnen des dritten Bodeneckpunktes wird der vierte Bodeneckpunkt entsprechend bestimmt, insbesondere dann, wenn die Vektoren zu den entsprechenden Bodeneckpunkten als V1, V2, V3 und V4 bezeichnet werden, mittels V4=V3 + V2 - V1.If the third floor corner point lies on the side edge of the rectangle that is not intersected by the orientation line, it is assumed to be the correctly determined third floor corner point. After calculating the third floor corner point, the fourth floor corner point is determined accordingly, especially if the vectors to the corresponding floor corner points are designated as V1, V2, V3 and V4, using V4=V3 + V2 - V1.

An dieser Stelle kann zweckmäßig überprüft werden, ob die Projektion des vierten Bodeneckpunktes in das Kamerabild im Rechteck liegt. Ist dies nicht der Fall, kann ebenso eine Anpassung der Bodenebene und/oder der Orientierungslinie und/oder des Rechtecks und/oder des ersten und/oder zweiten Rechenpunkts derart erfolgen, dass die Projektion innerhalb des Rechtecks zu liegen kommt. Zusammenfassend kann hinsichtlich dieser Plausibilitätsüberprüfung also gesagt werden, dass bei Projektion auf einer Verlängerung der entsprechenden Kante außerhalb des Rechtecks aufweisend bestimmtem dritten Bodeneckpunkt und/oder bei eine Projektion außerhalb des Rechtecks aufweisend bestimmtem vierten Bodeneckpunkt die Bodenebene und/oder die Orientierungslinie und/oder das Rechteck und/oder der erste und/oder der zweite Rechenpunkt derart korrigiert werden, dass die jeweiligen Projektionen auf der Kante beziehungsweise innerhalb des Rechtecks zu liegen kommen. In beiden Fällen wie auch im kombinierten Fall können, wie bereits erwähnt, Informationen zur Lage außerhalb des Rechtecks genauso wie Optimierungsverfahren, um geringstmögliche Änderungen vorzunehmen, zum Einsatz kommen. Dabei kann bevorzugt die Auswertungsinformation, also die zweidimensionale Annotation, als genauer angenommen werden und primär eine Korrektur der Bodenebene angestrebt werden, die gerade bei weit entfernten Zielobjekten gegebenenfalls ungenau sein kann, beispielsweise bei einer Bestimmung durch niedriger auflösenden LiDAR. At this point it is useful to check whether the projection of the fourth ground corner point in the camera image lies in the rectangle. If this is not the case, the floor plane and/or the orientation line and/or the rectangle and/or the first and/or second calculation point can also be adjusted in such a way that the projection comes to lie within the rectangle. In summary, with regard to this plausibility check it can be said that in the case of a projection on an extension of the corresponding edge outside the rectangle having a certain third floor corner point and/or in the case of a projection outside the rectangle having a certain fourth floor corner point, the floor plane and/or the orientation line and/or the rectangle and/or the first and/or the second calculation point are corrected in such a way that the respective projections come to lie on the edge or within the rectangle. In both cases as well as in the combined case, as already mentioned, information about the location outside the rectangle as well as optimization methods to make the smallest possible changes can be used. In this case, the evaluation information, i.e. the two-dimensional annotation, can preferably be assumed to be more accurate and the primary aim is to correct the ground level, which may be inaccurate, especially for distant target objects, for example when determining using lower-resolution LiDAR.

Die Bodeneckpunkte beschreiben eine rechteckige Bodenfläche, die vollständig in der Bodenebene liegt. Sie beschreiben also die geschätzte Bodenfläche, die das Zielobjekt abdeckt.The floor corner points describe a rectangular floor area that lies completely in the floor plane. So they describe the estimated floor area that the target object covers.

Soll ein vollständiger Quader erhalten werden, muss noch die Höhe desselben bestimmt werden. Hierzu kann vorgesehen sein, dass eine der Bodenfläche zugeordnete Dachfläche des Quaders durch den Satz von sich durch Addition eines gemeinsamen Höhenwerts multipliziert mit dem Normaleneinheitsvektor der Bodenebene zu den Bodeneckpunkten ergebenden Dacheckpunkten, deren Projektion in das Kamerabild bei maximalen Höhenwert für mindestens einen Dacheckpunkt oder alle Dacheckpunkte innerhalb des Rechtecks liegen, bestimmt wird. Bezeichnet man wiederum die Vektoren der Bodeneckpunkte mit V1, V2, V3 und V4 und setzt man als Vektoren der Dacheckpunkte T1, T2, T3 und T4 an, bezeichnet ferner h die Höhe und N den Normaleneinheitsvektor, also den zu der Bodenfläche orthogonalen Vektor, der nach oben zeigt und die Länge 1 hat, kann gesagt werden, dass die Höhe h möglichst groß und so gewählt werden kann, dass die Projektionen aller Punkte Tk = S1k + h x V mit k=1, 2, 3, 4 in das Kamerabild allesamt im Rechteck enthalten sind. Die für diese Höhe entstehende rechteckige Dachfläche aus T1, T2, T3 und T4 bildet den oberen Abschluss des Quaders. Dabei ist es aus Plausibilitätsgründen zweckmäßig zu fordern, dass alle Projektionen der Dacheckpunkte in das Kamerabild innerhalb des Rechtecks liegen sollen.If a complete cuboid is to be obtained, its height must still be determined. For this purpose, it can be provided that a roof area of the cuboid assigned to the floor area is determined by the set of roof checkpoints resulting from the addition of a common height value multiplied by the normal unit vector of the floor plane to the floor corner points, their projection into the camera image at the maximum height value for at least one roof checkpoint or all roof checkpoints lie within the rectangle is determined. This is again called the vector ren of the floor vertices with V1, V2, V3 and V4 and if one sets T1, T2, T3 and T4 as vectors of the roof vertices, h also denotes the height and N the normal unit vector, i.e. the vector orthogonal to the floor surface, which points upwards and has the length 1, it can be said that the height h can be chosen as large as possible and so that the projections of all points Tk = S1k + hx V with k = 1, 2, 3, 4 in the camera image are all contained in the rectangle . The rectangular roof area created for this height consisting of T1, T2, T3 and T4 forms the upper end of the cuboid. For reasons of plausibility, it is advisable to require that all projections of the roof vertices in the camera image should lie within the rectangle.

Es sei an dieser Stelle noch angemerkt, dass aufgrund der extrinsischen Kalibrierung der Kamera die Lage der Bodeneckpunkte und der Dacheckpunkte und somit des Quaders nicht nur im Kamerakoordinatensystem, sondern auch im Egoobjektkoordinatensystem, insbesondere Kraftfahrzeugkoordinatensystem, bekannt sind.It should be noted at this point that due to the extrinsic calibration of the camera, the position of the floor corner points and the roof corner points and thus of the cuboid are known not only in the camera coordinate system, but also in the ego object coordinate system, in particular the motor vehicle coordinate system.

Im oben erwähnten zweiten Fall werden zweckmäßigerweise zusätzlich Dimensionsinformationen berücksichtigt, um eine aus dem Kamerabild nicht sichtbare Dimension, beispielsweise Länge oder Breite, möglichst verlässlich abschätzen zu können. Hierzu kann vorgesehen sein, dass als Teil der Auswertungsinformation eine Klasse des Zielobjekts, der eine wenigstens eine Erwartungsabmessung eines Zielobjekts in der Klasse beschreibende Dimensionsinformation zugeordnet ist, ermittelt wird, wie bereits erwähnt wurde. Zusätzlich oder alternativ kann dem Zielobjekt aus einer zeitlich vorhergehenden Ermittlung der Ausdehnungsinformation eine wenigstens eine Erwartungsabmessung des Zielobjekts beschreibende Dimensionsinformation zugeordnet werden. Wurde beispielsweise in der Vergangenheit bereits eine Ausdehnungsinformation bezüglich des Zielobjekts bestimmt, insbesondere auf Basis eines in der Vergangenheit aufgenommenen Kamerabildes, für das der erste Fall vorlag, mithin zwei vertikal verlaufende Seiten des Zielobjekts in dem Kamerabild sichtbar waren, wurde zu diesem Zeitpunkt auch mit hoher Verlässlichkeit die Breite und/oder Länge des Zielobjekts bestimmt und kann als Dimensionsinformation bereitgestellt werden, gegebenenfalls auch aus weiteren Kamerabildern, für die eine Ermittlung gemäß dem ersten Fall möglich ist, beispielsweise durch Mittelwertbildung ständig aktualisiert und verfeinert werden. Insbesondere für Fälle, in denen keine derartige Dimensionsinformation aus einem vorhergehenden Zeitschritt vorliegt, kann auch eine sozusagen externe Dimensionsinformation herangezogen werden, die zweckmäßigerweise aufgrund der Klasse des Zielobjekts, die als Teil der Auswertungsinformation bestimmt wurde, gewählt werden kann. Gerade in diesem Fall ist es besonders vorteilhaft, eine möglichst genaue Unterteilung des Zielobjekts in verschiedene Klassen zu nutzen, die auf deren Größe und/oder Form abgestellt ist. Bei Fahrzeugen als Zielobjekte wurden diesbezüglich oben bereits Beispiele genannt, sodass beispielsweise für einen Kleinwagen geringere Erwartungsabmessungen angenommen werden können als für einen SUV. Soll die Ausdehnungsinformation für eine sicherheitsrelevante Fahrzeugfunktion eingesetzt werden, kann es auch zweckmäßig sein, die Erwartungsabmessung gezielt in einem Maximalbereich der denkbaren Werte anzusetzen.In the second case mentioned above, additional dimensional information is expediently taken into account in order to be able to estimate as reliably as possible a dimension that is not visible from the camera image, for example length or width. For this purpose, it can be provided that, as part of the evaluation information, a class of the target object, to which dimensional information describing at least one expected dimension of a target object in the class is assigned, is determined, as already mentioned. Additionally or alternatively, dimension information describing at least one expected dimension of the target object can be assigned to the target object from a previous determination of the extent information. For example, if extension information regarding the target object was already determined in the past, in particular on the basis of a camera image recorded in the past, for which the first case existed, i.e. two vertically extending sides of the target object were visible in the camera image, it was also used at this point in time Reliability determines the width and / or length of the target object and can be provided as dimensional information, possibly also from other camera images for which a determination according to the first case is possible, for example constantly updated and refined by averaging. In particular, for cases in which no such dimensional information is available from a previous time step, external dimensional information, so to speak, can also be used, which can expediently be selected based on the class of the target object, which was determined as part of the evaluation information. In this case in particular, it is particularly advantageous to use the most precise possible division of the target object into different classes based on their size and/or shape. In the case of vehicles as target objects, examples have already been given above, so that, for example, smaller expected dimensions can be assumed for a small car than for an SUV. If the expansion information is to be used for a safety-relevant vehicle function, it may also be expedient to specifically set the expected dimension in a maximum range of conceivable values.

Dann kann im oben bereits genannten zweiten Fall, also bei nur einer in dem Kamerabild sichtbaren vertikal verlaufenden Seite des Zielobjekts, angezeigt durch die Trenninformation, zur Bestimmung einer durch das Zielobjekt auf dem Boden abgedeckten Bodenfläche vorgesehen sein, dass

  • - ein erster Rechenpunkt als unterer linker Eckpunkt des Rechtecks in dem Kamerabild und ein zweiter Rechenpunkt als unterer rechter Eckpunkt des Rechtecks in dem Kamerabild ermittelt werden,
  • - mittels des Aufnahmegeometriemodells für den ersten und den zweiten Rechenpunkt Strahlen, auf denen die Rechenpunkte liegen, ermittelt werden und die jeweiligen Schnittpunkte der Strahlen mit der Bodenebene als erste und zweite Bodeneckpunkte im dreidimensionalen Raum bestimmt werden, und
  • - zwei senkrecht zu einer den ersten und den zweiten Bodeneckpunkt verbindenden Verbindungsgeraden in der Bodenebene liegende Suchgeraden durch die jeweiligen Bodeneckpunkte und dritte und vierte Bodeneckpunkte entlang der jeweiligen Suchgerade in einer Richtung weg von der Kamera bei Aufnahme des Kamerabildes in einem gemäß der Dimensionsinformation ermittelten Abstand im dreidimensionalen Raum bestimmt werden.
Then in the second case already mentioned above, i.e. with only one vertical side of the target object visible in the camera image, indicated by the separation information, it can be provided to determine a floor area covered by the target object on the ground
  • - a first calculation point is determined as the lower left corner point of the rectangle in the camera image and a second calculation point is determined as the lower right corner point of the rectangle in the camera image,
  • - using the recording geometry model for the first and second calculation points, rays on which the calculation points lie are determined and the respective intersection points of the rays with the ground plane are determined as first and second ground corner points in three-dimensional space, and
  • - two search lines lying perpendicular to a connecting line in the floor plane connecting the first and second floor corner points through the respective floor corner points and third and fourth floor corner points along the respective search line in a direction away from the camera when recording the camera image at a distance determined according to the dimensional information three-dimensional space can be determined.

Soll wiederum der gesamte Quader ermittelt werden, kann wiederum eine der Bodenfläche zugeordnete Dachfläche des Quaders durch den Satz von sich durch Addition eines gemeinsamen Höhenwerts multipliziert mit dem Normaleneinheitsvektor der Bodenebene zu den Bodeneckpunkten ergebenden Dacheckpunkten, deren Projektion in das Kamerabild bei maximalen Höhenwert für mindestens einen Dacheckpunkt, insbesondere alle Dacheckpunkte, innerhalb des Rechtecks liegen, bestimmt werden.If the entire cuboid is to be determined again, a roof area of the cuboid assigned to the floor area can be determined by the set of roof vertices resulting from the addition of a common height value multiplied by the normal unit vector of the floor plane to the floor corner points, their projection into the camera image at the maximum height value for at least one Roof checkpoint, in particular all roof checkpoints, that lie within the rectangle can be determined.

In diesem zweiten Fall werden also die rechte und die linke untere Ecke des Rechtecks im Kamerabild als Rechenpunkte herangezogen, nachdem sie mit Bodeneckpunkten korrespondieren. Wie im ersten Fall können die entsprechenden Bodeneckpunkte im dreidimensionalen Kamerakoordinatensystem durch Schnitt der entsprechenden Strahlen mit der Bodenebene ermittelt werden. Existieren keine Schnittpunkte des ersten und des zweiten Strahls mit der Bodenebene, kann diese korrigiert werden, insbesondere durch Anhebung des Horizonts. Es werden nun jedoch zwei Suchgeraden verwendet, die senkrecht zur Verbindung zwischen dem ersten und dem zweiten Bodeneckpunkt stehen und durch diese verlaufen. In anderen Worten können sie auch als Suchstrahlen, die von der Kamera zum Zeitpunkt der Aufnahme des Kamerabilds weglaufen und bei dem ersten beziehungsweise dem zweiten Bodeneckpunkt beginnen, verstanden werden. Aus der Dimensionsinformation kann nun ein Abstand hergeleitet werden, beispielsweise anhand eines in wenigstens einem vorherigen Zeitschritt erhaltenen Ergebnisses oder anhand einer entsprechenden Erwartungsabmessung. Ist beispielsweise nur die Vorder- oder Rückseite des Zielobjekts zu sehen, kann der Abstand als eine Referenzlänge des Zielobjekts verstanden werden, ist nur eine Lateralseite, beispielsweise die linke Seite oder die rechte Seite des Zielobjekts zu sehen, kann der Abstand als eine Referenzbreite verstanden werden. In diesem Zusammenhang erweist sich die Seitenklassifizierung als Teil der Auswertungsinformation wiederum als besonders nützlich, da dann die sichtbare Seite des Zielobjekts klassifiziert ist und mithin unmittelbar bekannt ist, welche Dimension fehlt.In this second case, the lower right and left corners of the rectangle in the camera image are used as calculation points after they correspond to ground corner points. As in the first case, the corresponding floor corners can be used points in the three-dimensional camera coordinate system can be determined by intersecting the corresponding rays with the ground plane. If there are no intersections of the first and second rays with the ground plane, this can be corrected, in particular by raising the horizon. However, two search lines are now used, which are perpendicular to the connection between the first and second ground corner points and run through them. In other words, they can also be understood as search beams that run away from the camera at the time the camera image is recorded and begin at the first or second ground corner point. A distance can now be derived from the dimensional information, for example based on a result obtained in at least one previous time step or based on a corresponding expected dimension. For example, if only the front or back of the target object can be seen, the distance can be understood as a reference length of the target object. If only a lateral side, for example the left side or the right side of the target object, can be seen, the distance can be understood as a reference width . In this context, page classification as part of the evaluation information proves to be particularly useful, since the visible side of the target object is then classified and it is therefore immediately known which dimension is missing.

Mit anderen Worten kann vorgesehen sein, dass bei Vorliegen einer Seitenklassifizierung als Teil der Auswertungsinformation die Erwartungsabmessung in der zu der in dem Kamerabild sichtbaren, vertikal verlaufenden, klassifizierten Seite senkrechten Richtung aus der Dimensionsinformation als Abstand ausgewählt wird. Hierbei kann, wie bereits erwähnt wurde, zum einen anhand einer Klasse des Zielobjekts eine zugeordnete Dimensionsinformation herangezogen werden; ist jedoch eine bereits zu anderen Zeitpunkten beobachtete Länge oder Breite des Zielobjekts als Erwartungsausdehnung bekannt, sollte diese bevorzugt genutzt werden. Der dritte und der vierte Bodeneckpunkt werden nun ermittelt, indem man entlang der Suchgeraden von der Kamera zum Zeitpunkt der Aufnahme des Kamerabilds weg um den Abstand, mithin die Referenzlänge oder die Referenzbreite, entlanggeht.In other words, it can be provided that if a page classification is present as part of the evaluation information, the expected dimension in the direction perpendicular to the vertically running, classified page visible in the camera image is selected from the dimensional information as a distance. As already mentioned, assigned dimensional information can be used based on a class of the target object; However, if a length or width of the target object that has already been observed at other times is known as the expected extent, this should be used preferentially. The third and fourth ground corner points are now determined by walking along the search line away from the camera at the time the camera image is taken by the distance, i.e. the reference length or the reference width.

In diesem Zusammenhang ist noch anzumerken, dass Fehlerfälle grundsätzlich denkbar sind, in denen wenigstens eine der Suchgeraden initial unmittelbar in ihrer Projektion in das Kamerabild aus dem Rechteck hinausläuft. Dann kann zweckmäßigerweise vorgesehen sein, dass die Bodenebene und/oder das Rechteck derart korrigiert werden, dass die Projektionen der Suchgeraden zumindest bis zu dem Abstand innerhalb des Rechtecks in dem Kamerabild verlaufen. Sollte, mit anderen Worten, die Projektion eines Suchstrahls in das Kamerabild sofort aus dem Rechteck herauslaufen, wird ein Korrekturschritt vorgenommen und die Bodenebene und/oder das Rechteck werden so korrigiert, dass nach Neuberechnung der ersten und zweiten Bodeneckpunkte und der Suchgeraden die Projektionen der Suchgeraden von dem ersten beziehungsweise zweiten Bodeneckpunkt ausgehend zunächst innerhalb des Rechtecks verlaufen.In this context, it should also be noted that error cases are fundamentally conceivable in which at least one of the search lines initially runs out of the rectangle in its projection into the camera image. It can then expediently be provided that the ground plane and/or the rectangle are corrected in such a way that the projections of the search line extend at least up to the distance within the rectangle in the camera image. If, in other words, the projection of a search beam into the camera image immediately runs out of the rectangle, a correction step is carried out and the ground plane and / or the rectangle are corrected so that after recalculation of the first and second ground corner points and the search line, the projections of the search line starting from the first or second floor corner point, initially run within the rectangle.

Auf diese Weise ist wiederum die Bodenfläche des Quaders bestimmt, sodass, falls der gesamte Quader als Ausdehnungsinformation ermittelt werden soll, wie zum ersten Fall beschrieben auch die Dachfläche entsprechend ermittelt werden kann.In this way, the floor area of the cuboid is again determined, so that if the entire cuboid is to be determined as expansion information, the roof area can also be determined accordingly, as described in the first case.

Insbesondere dann, wenn das Zielobjekt nicht vollständig in dem Kamerabild enthalten ist, sind zusätzlich zu dem ersten Fall und dem zweiten Fall noch weitere Fälle denkbar, die jedoch im Rahmen der vorliegenden Erfindung auch behandelt werden können. In derartigen Sonderfällen ist das Zielobjekt, dessen einhüllender Quader bestimmt werden soll, im Kamerabild nicht vollständig sichtbar, weil es durch den Bildrand abgeschnitten wird. Jedoch lässt sich in vielen derartigen Sonderfällen, zumindest unter Hinzunahme der Dimensionsinformation, zumindest noch eine sehr gute Abschätzung erzielen. Mit anderen Worten kann bei nicht vollständig in dem Kamerabild aufgenommenen Zielobjekt, insbesondere bei nur einem bestimmbaren Bodeneckpunkt, fehlende Information zur Rekonstruktion der Bodenfläche bzw. des Quaders der Dimensionsinformation entnommen werden.In particular, if the target object is not completely contained in the camera image, other cases are conceivable in addition to the first case and the second case, but these can also be dealt with within the scope of the present invention. In such special cases, the target object whose enveloping cuboid is to be determined is not completely visible in the camera image because it is cut off by the edge of the image. However, in many such special cases, at least a very good estimate can still be achieved, at least with the addition of the dimensional information. In other words, if the target object is not completely recorded in the camera image, in particular if there is only one determinable ground corner point, missing information for reconstructing the ground surface or the cuboid can be taken from the dimensional information.

Es werden mithin in diesen Sonderfällen, je nach Sichtbarkeit, nur Teilinformationen des Kamerabilds herangezogen, beispielsweise nur zwei oder drei Kanten des Rechtecks oder nur einer des ersten beziehungsweise zweiten Bodeneckpunkts. Je nach Verfügbarkeit können daraus dann Teile des gesuchten Quaders mit den zum ersten und zum zweiten Fall beschriebenen Methoden berechnet werden. Bodeneckpunkte, die nicht aus dem Kamerabild erschließbar sind, können mittels der Dimensionsinformation hergeleitet werden, mithin unter Nutzung von zu einem anderen Zeitpunkt beobachteten und/oder aus einer Klasse des Zielobjekts gefolgerten Erwartungsabmessungen. Sind beispielsweise im Kamerabild nur der zweite Rechenpunkt und ein Teil der Orientierungslinie sichtbar, kann der zweite Bodeneckpunkt bestimmt werden. Aus der Orientierungslinie lässt sich ein Strahl berechnen, der in der Bodenebene vom zweiten Bodeneckpunkt weg verläuft. Entlang dieses Suchstrahls geht man die Erwartungsabmessung entlang, um zum ersten Bodeneckpunkt zu gelangen.In these special cases, depending on visibility, only partial information from the camera image is used, for example only two or three edges of the rectangle or only one of the first or second ground corner point. Depending on availability, parts of the cuboid you are looking for can then be calculated using the methods described for the first and second cases. Ground corner points that cannot be determined from the camera image can be derived using the dimensional information, i.e. using expected dimensions observed at another time and/or inferred from a class of the target object. For example, if only the second calculation point and part of the orientation line are visible in the camera image, the second ground corner point can be determined. From the orientation line, a ray can be calculated that runs in the ground plane away from the second ground corner point. You walk along this search beam along the expected dimension to get to the first ground corner point.

In Ausführungsbeispielen der vorliegenden Erfindung kann im Übrigen auch vorgesehen sein, die Dimensionsinformation hinsichtlich einer Plausibilisierung heranzuziehen. So kann beispielsweise vorgesehen sein, dass die Dimensionsinformation zusätzlich ein Intervall zulässiger Abmessungen für die jeweilige Klasse des Zielobjekts umfasst, wobei in einem Plausibilisierungsschritt aus dem Kamerabild bestimmte Abmessungen des Zielobjekts mit dem Intervall verglichen werden und bei Nichtplausibilität eine Neuermittlung und/oder Korrektur der Ausdehnungsinformation und/oder ihrer Grundlagen und/oder ein Verwerfen der Ausdehnungsinformation erfolgt. Anhand der Klasse des Zielobjekts, die als Teil der Auswertungsinformation bereits bestimmt sein kann, können die erhaltenen Ausdehnungen, also Abmessungen, des Quaders in der Ausdehnungsinformation weiter plausibilisiert und gegebenenfalls korrigiert werden. Hierzu können für die jeweilige Klasse des Zielobjekts Referenzintervalle für die Länge, die Breite und gegebenenfalls die Höhe von Zielobjekten der Klasse herangezogen werden. Sollten die Abmessungen der Bodenfläche bzw. des bestimmten Quaders außerhalb dieser Intervalle liegen, kann eine Korrektur erfolgen. Dabei kann beispielsweise vorgesehen sein, dass die Abmessungen bei Unterschreitung des niedrigsten Werts des Intervalls auf diesen niedrigen Wert korrigiert werden und bei Überschreitung des höchsten Werts des Intervalls auf diesen höchsten Wert korrigiert werden. Dabei erfolgen die Korrekturen bezüglich Länge und Breite bevorzugt symmetrisch. Insbesondere bei starken Abweichungen ist es jedoch auch denkbar, Ausdehnungsinformationen für diesen Zeitschritt zu verwerfen und ein Kamerabild des nächsten Zeitschritts heranzuziehen, um eine neue Ermittlung anzustreben. Beispielsweise kann dann zunächst die Ausdehnungsinformation eines vorangehenden Zeitschritts weiter verwendet werden. Selbstverständlich ist grundsätzlich auch eine Plausibilisierung über Zeitschritte im Rahmen der vorliegenden Erfindung denkbar.In exemplary embodiments of the present invention, provision can also be made to use the dimensional information for a plausibility check. For example, it can be provided that the dimensional information additionally includes an interval of permissible dimensions for the respective class of the target object, with certain dimensions of the target object from the camera image being compared with the interval in a plausibility step and, if not plausible, a new determination and/or correction of the extent information and /or its basis and/or the extension information is discarded. Based on the class of the target object, which can already be determined as part of the evaluation information, the obtained extensions, i.e. dimensions, of the cuboid can be further checked for plausibility in the extension information and corrected if necessary. For this purpose, reference intervals for the length, width and, if necessary, the height of target objects of the class can be used for the respective class of the target object. If the dimensions of the floor area or the specific cuboid lie outside these intervals, a correction can be made. It can be provided, for example, that the dimensions are corrected to this low value when the lowest value of the interval is undershot and to be corrected to this highest value when the highest value of the interval is exceeded. The corrections regarding length and width are preferably made symmetrically. However, particularly in the case of strong deviations, it is also conceivable to discard extent information for this time step and use a camera image from the next time step in order to attempt a new determination. For example, the extent information from a previous time step can then continue to be used. Of course, in principle a plausibility check over time steps is also conceivable within the scope of the present invention.

In einer zweckmäßigen Weiterbildung der vorliegenden Erfindung kann vorgesehen sein, dass als der Auswertungsalgorithmus eine trainierte Funktion, insbesondere ein neuronales Netzwerk, verwendet wird, welche insbesondere mit händisch annotierten Kamerabildern als Trainingsdaten trainiert wurde. Im Rahmen der vorliegenden Erfindung hat sich gezeigt, dass für die mindestens angestrebten Auswertungsinformationen (Rechteck, Orientierungsinformation), aber auch unter Hinzunahme optionaler, besonders bevorzugter weiterer Auswertungsinformationen wie der Trenninformation, der Seitenklassifizierung und der Klasse des Zielobjekts, eine robuste, schnelle und eine überschaubare Menge von Trainingsdaten benötigende trainierte Funktion der künstlichen Intelligenz, beispielsweise ein Convolutional Neural Network (CNN), herangezogen werden kann. Es können also Techniken des Maschinenlernens eingesetzt werden, um den Auswertungsalgorithmus zu trainieren und die Auswertungsinformationen schnell und aufwandsarm aus den Bilddaten des Kamerabilds herzuleiten, insbesondere mithin ausschließlich aus dem Kamerabild. Hierbei können beispielsweise manuelle Annotationen herangezogen werden, um entsprechende Trainingsdaten bereitstellen zu können, denkbar ist es jedoch aber auch, wenigstens teilweise automatisch ermittelte Annotationen zur Erzeugung der Trainingsdaten heranzuziehen. Beispielsweise sind auch ohne künstliche Intelligenz auskommende Bildverarbeitungsalgorithmen häufig in der Lage, Zielobjekte eng umschließende Rechtecke und Orientierungslinien zu berechnen. Mithilfe solcher Trainingsdaten wird eine Funktion der künstlichen Intelligenz durch Maschinenlernen trainiert, die relevante Zielobjekte im Kamerabild erkennt und für alle erkannten Zielobjekte genau die genannten Auswertungsinformationen ausgibt, beispielsweise für Fahrzeuge.In an expedient development of the present invention, it can be provided that a trained function, in particular a neural network, is used as the evaluation algorithm, which was trained in particular with manually annotated camera images as training data. In the context of the present invention, it has been shown that for the at least desired evaluation information (rectangle, orientation information), but also with the addition of optional, particularly preferred further evaluation information such as the separation information, the page classification and the class of the target object, a robust, fast and manageable one A trained function of artificial intelligence that requires a lot of training data, for example a convolutional neural network (CNN), can be used. Machine learning techniques can therefore be used to train the evaluation algorithm and to derive the evaluation information quickly and with little effort from the image data of the camera image, in particular exclusively from the camera image. Here, for example, manual annotations can be used in order to be able to provide corresponding training data, but it is also conceivable to use at least partially automatically determined annotations to generate the training data. For example, even without artificial intelligence, image processing algorithms are often able to calculate rectangles and orientation lines that closely surround target objects. With the help of such training data, an artificial intelligence function is trained through machine learning, which recognizes relevant target objects in the camera image and outputs exactly the above-mentioned evaluation information for all detected target objects, for example for vehicles.

In diesem Zusammenhang sei angemerkt, dass es bezüglich nicht vollständig in dem Kamerabild enthaltener Zielobjekte auch denkbar ist, den Auswertungsalgorithmus so zu gestalten, dass er zumindest in einigen Fällen die fehlende Information abschätzen kann. So kann vorgesehen sein, dass für zumindest einen Teil nicht vollständig in dem Kamerabild aufgenommener Zielobjekte der Auswertungsalgorithmus, insbesondere aufgrund entsprechendem Trainings, zur Abschätzung des vollständigen, aus dem Kamerabild hinausragenden Rechtecks ausgebildet ist. Insbesondere ist dabei ein Auswertungsalgorithmus denkbar, der zunächst eine Klasse des Zielobjekts bestimmt, um dann die der Klasse zugeordneten Dimensionsinformationen zu nutzen, um die Auswertungsinformation für die Erwartungsabmessungen zu bestimmen. Denkbar ist es selbstverständlich auch, dass durch den Auswertungsalgorithmus zunächst eine Identifikation des Zielobjekts als zu einem vorangegangenen Zeitpunkt bereits bearbeitetes Zielobjekt erfolgt, so dass dann entsprechend die Dimensionsinformation aus einem früheren Zeitschritt herangezogen werden kann.In this context, it should be noted that with regard to target objects that are not completely contained in the camera image, it is also conceivable to design the evaluation algorithm in such a way that it can estimate the missing information, at least in some cases. It can thus be provided that for at least a portion of target objects that are not completely captured in the camera image, the evaluation algorithm is designed, in particular based on appropriate training, to estimate the complete rectangle protruding from the camera image. In particular, an evaluation algorithm is conceivable that first determines a class of the target object and then uses the dimensional information assigned to the class to determine the evaluation information for the expected dimensions. It is of course also conceivable that the evaluation algorithm first identifies the target object as a target object that has already been processed at a previous point in time, so that the dimensional information from an earlier time step can then be used accordingly.

Neben dem Verfahren betrifft die vorliegende Erfindung auch ein Kraftfahrzeug, aufweisend ein zur Durchführung des erfindungsgemäßen Verfahrens ausgebildetes Steuergerät und die Kamera. In diesem Fall werden als Zielobjekte bevorzugt Fahrzeuge verwendet. Bei der Kamera kann es sich beispielsweise um die Frontkamera des Kraftfahrzeugs handeln. Sämtliche Ausführungen bezüglich des erfindungsgemäßen Verfahrens lassen sich analog auf das erfindungsgemäße Kraftfahrzeug übertragen, so dass auch mit diesem die bereits genannten Vorteile erhalten werden können.In addition to the method, the present invention also relates to a motor vehicle, having a control device designed to carry out the method according to the invention and the camera. In this case, vehicles are preferably used as target objects. The camera can be, for example, the front camera of the motor vehicle. All statements regarding the method according to the invention can be transferred analogously to the motor vehicle according to the invention, so that the advantages already mentioned can also be achieved with this.

Das Steuergerät weist dabei insbesondere wenigstens ein Speichermittel und wenigstens einen Prozessor auf, wobei der Prozessor Funktionseinheiten zur Durchführung des erfindungsgemäßen Verfahrens bereitstellen kann. Das Steuergerät kann insbesondere eine Schnittstelle zur Entgegennahme des von der Kamera aufgenommenen Kamerabilds, eine Auswertungseinheit zur Durchführung des Auswertungsalgorithmus, eine Bodenebenenbestimmungseinheit zur Ermittlung der Bodenebene/Bodeninformation und eine Ausdehnungsinformationsbestimmungseinheit zur Bestimmung der Ausdehnungsinformation umfassen.The control device in particular has at least one memory means and at least one processor, wherein the processor can provide functional units for carrying out the method according to the invention. The control device can in particular include an interface for receiving the camera image recorded by the camera, an evaluation unit for carrying out the evaluation algorithm, a ground level determination unit for determining the ground level/ground information and an extent information determination unit for determining the extent information.

Dabei kann die erhaltene Ausdehnungsinformation grundsätzlich und allgemein, also auch bei anderen Anwendungen, vielseitig eingesetzt werden, beispielsweise zur Erzeugung von Trainingsdaten für andere Algorithmen der künstlichen Intelligenz. Besonders zweckmäßig kann jedoch die Ausdehnungsinformation beim Betrieb des Kraftfahrzeugs, insbesondere für Fahrzeugfunktionen, eingesetzt werden. So sieht eine zweckmäßige Weiterbildung des erfindungsgemäßen Kraftfahrzeugs vor, dass das oder ein weiteres Steuergerät zur Verwendung der Ausdehnungsinformation bei der Ausführung wenigstens einer Fahrzeugfunktion, insbesondere einer eine wenigstens teilweise automatische Führung des Kraftfahrzeugs umfassenden Fahrzeugführungsfunktion, ausgebildet ist.The extent information obtained can fundamentally and generally be used in a variety of ways, including in other applications, for example to generate training data for other artificial intelligence algorithms. However, the expansion information can be used particularly expediently when operating the motor vehicle, in particular for vehicle functions. An expedient development of the motor vehicle according to the invention provides that the or another control device is designed to use the extension information when executing at least one vehicle function, in particular a vehicle guidance function comprising at least partially automatic guidance of the motor vehicle.

Insbesondere dann, wenn zur Bestimmung der Bodenebene für das Zielobjekt Informationen von Abstandssensoren herangezogen werden sollen, ist es im Übrigen auch denkbar, dass das Kraftfahrzeug ferner den wenigstens einen Abstandssensor aufweist.In particular, if information from distance sensors is to be used to determine the ground level for the target object, it is also conceivable that the motor vehicle also has the at least one distance sensor.

Ein erfindungsgemäßes Computerprogramm ist direkt in ein Speichermittel einer Recheneinrichtung, beispielsweise eines Steuergeräts eines Kraftfahrzeugs, ladbar, und weist Programmmittel auf, um die Schritte eines erfindungsgemäßen Verfahrens durchzuführen, wenn das Computerprogramm auf der Recheneinrichtung ausgeführt wird. Das Computerprogramm kann auf einem erfindungsgemäßen elektronisch lesbaren Datenträger gespeichert sein, welcher mithin darauf gespeicherte Steuerinformationen umfasst, die wenigstens ein erfindungsgemäßes Computerprogramm umfassen und bei Nutzung des Datenträgers in einer Recheneinrichtung diese ausgestalten, ein erfindungsgemäßes Verfahren durchzuführen. Bei dem Datenträger kann es sich beispielsweise um einen nicht transienten Datenträger, beispielsweise eine CD-ROM, handeln.A computer program according to the invention can be loaded directly into a storage means of a computing device, for example a control unit of a motor vehicle, and has program means in order to carry out the steps of a method according to the invention when the computer program is executed on the computing device. The computer program can be stored on an electronically readable data carrier according to the invention, which therefore includes control information stored thereon, which includes at least one computer program according to the invention and, when the data carrier is used in a computing device, is designed to carry out a method according to the invention. The data carrier can be, for example, a non-transient data carrier, for example a CD-ROM.

Weitere Vorteile und Einzelheiten der vorliegenden Erfindung ergeben sich aus den im Folgenden beschriebenen Ausführungsbeispielen sowie anhand der Zeichnung. Dabei zeigen:

  • 1 einen Ablaufplan eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens,
  • 2 ein erstes Kamerabild mit Annotationen,
  • 3 ein zweites Kamerabild mit Annotationen,
  • 4 ein drittes Kamerabild mit Annotationen, und
  • 5 eine Prinzipskizze eines erfindungsgemäßen Kraftfahrzeugs.
Further advantages and details of the present invention emerge from the exemplary embodiments described below and from the drawing. Show:
  • 1 a flowchart of an exemplary embodiment of the method according to the invention,
  • 2 a first camera image with annotations,
  • 3 a second camera image with annotations,
  • 4 a third camera image with annotations, and
  • 5 a schematic sketch of a motor vehicle according to the invention.

1 zeigt einen prinzipiellen Ablaufplan von Ausführungsbeispielen des erfindungsgemäßen Verfahrens. Dabei werden im Folgenden Ausführungsbeispiele erläutert, bei denen ein Kraftfahrzeug als Egoobjekt eine Kamera aufweist, beispielsweise eine Frontkamera. Es sind jedoch, insbesondere wenn es um die Generierung von 3D-Annotationen als Trainingsdaten für einen Algorithmus der künstlichen Intelligenz geht, auch andere Egoobjekte denkbar, beispielsweise Stative oder Mobileinheiten mit Kamera. Die Kamera ist intrinsisch und extrinsisch kalibriert, wobei in der Kamera insbesondere auch eine Entzerrung aufgenommener zweidimensionaler Kamerabilder stattfindet, sodass mittels eines Lochkameramodells als Aufnahmegeometriemodell Strahlen berechnet werden können, auf denen in bestimmten Bildpunkten (Pixeln) des Kamerabilds sichtbare Merkmale, beispielsweise Punkte, liegen müssen. Durch die externe Kalibrierung der Kamera ist das dreidimensionale Kamerakoordinatensystem mit dem dreidimensionalen Egoobjektkoordinatensystem, im Beispiel Kraftfahrzeugkoordinatensystem, registriert, das bedeutet, es ist eine Umrechnung entsprechender dreidimensionaler Positionen und Richtungen möglich. Im Kraftfahrzeugkoordinatensystem ist insbesondere auch aufgrund der bekannten Lage der Räder die Lage der Bodenebene, die von dem Kraftfahrzeug befahren wird, bekannt. 1 shows a basic flowchart of exemplary embodiments of the method according to the invention. In the following, exemplary embodiments are explained in which a motor vehicle has a camera as the ego object, for example a front camera. However, especially when it comes to generating 3D annotations as training data for an artificial intelligence algorithm, other ego objects are also conceivable, for example tripods or mobile units with cameras. The camera is intrinsically and extrinsically calibrated, with the camera in particular also rectifying recorded two-dimensional camera images, so that rays can be calculated using a pinhole camera model as a recording geometry model, on which visible features, for example points, must lie in certain image points (pixels) of the camera image . Due to the external calibration of the camera, the three-dimensional camera coordinate system is registered with the three-dimensional ego object coordinate system, in the example motor vehicle coordinate system, which means that a conversion of corresponding three-dimensional positions and directions is possible. In the motor vehicle coordinate system, the position of the ground plane on which the motor vehicle travels is known, in particular due to the known position of the wheels.

Die Kamera liefert nun zweidimensionale Kamerabilder einer Verkehrssituation, in der eine Vielzahl von Objekten sichtbar sind. Für bestimmte Zielobjekte, hier Fahrzeuge verschiedener Art und Klasse, soll durch das hier beschriebene Verfahren eine Ausdehnungsinformation ermittelt werden, die die Position, Orientierung und Ausdehnung der Zielobjekte, also Fahrzeuge, beschreibt. Dabei wird die Ausdehnung in den hier beschriebenen Ausführungsbeispielen durch einen das entsprechende Fahrzeug als Zielobjekt umschließenden Quader beschrieben, die Position und Orientierung durch die Position und/oder Orientierung des Quaders. Bei dem Quader handelt es sich mithin um eine dreidimensionale Begrenzungsbox (Bounding Box).The camera now delivers two-dimensional camera images of a traffic situation in which a large number of objects are visible. For certain target objects, here vehicles of different types and classes, the method described here is intended to determine extent information that describes the position, orientation and extent of the target objects, i.e. vehicles. In the exemplary embodiments described here, the extent is described by a cuboid surrounding the corresponding vehicle as a target object, and the position and orientation are described by the position and/or orientation of the cuboid. The cuboid is therefore a three-dimensional bounding box.

In einem Schritt S1 wird, insbesondere gesteuert durch die das Verfahren ausführende Recheneinrichtung, ein zweidimensionales Kamerabild aufgenommen. Bei der Recheneinrichtung kann es sich im Fall eines Kraftfahrzeugs als Egoobjekt um ein Steuergerät des Kraftfahrzeugs handeln.In a step S1, a two-dimensional camera image is recorded, in particular controlled by the computing device executing the method. In the case of a motor vehicle as ego object, the computing device can be a control unit of the motor vehicle.

Das Kamerabild wird in einem Schritt S2 einem Auswertungsalgorithmus übergeben, der für die in dem Kamerabild detektierbaren Zielobjekte, hier Fahrzeuge, jeweils Auswertungsinformationen in der Art zweidimensionaler Annotationen ausgibt. Der Auswertungsalgorithmus ist eine trainierte Funktion der künstlichen Intelligenz, die mittels entsprechender Trainingsdaten trainiert wurde (Maschinenlernen). Die Trainingsdaten können dabei manuell und/oder automatisch annotierte zweidimensionale Kamerabilder umfassen. Es sind jedoch auch Ausführungsbeispiele denkbar, in denen wenigstens ein Teil der Auswertungsinformation „herkömmlich“, beispielsweise durch entsprechende Bildverarbeitungsalgorithmen ohne Maschinenlernen ermittelt werden.In a step S2, the camera image is transferred to an evaluation algorithm, which outputs evaluation information in the form of two-dimensional annotations for the target objects that can be detected in the camera image, here vehicles. The evaluation algorithm is a trained function of artificial intelligence that was trained using appropriate training data (machine learning). The training data can include manually and/or automatically annotated two-dimensional camera images. However, exemplary embodiments are also conceivable in which at least some of the evaluation information is determined “conventionally”, for example by appropriate image processing algorithms without machine learning.

Die Auswertungsinformation umfasst vorliegend fünf Bestandteile. Zunächst wird für jedes Zielobjekt in dem Kamerabild ein Rechteck bestimmt, das das Zielobjekt im Kamerabild umschließt und somit auch die Projektion des das reale, dreidimensionale Zielobjekt präzise umgebenden Quaders in das Kamerabild einschließt. Das Rechteck kann, muss aber nicht zwingend die zweidimensionale sichtbare Silhouette des Zielobjekts präzise einschließen, sondern kann, insbesondere an der Unterseite, größer sein. Dies gilt insbesondere im hier diskutierten Fall von Fahrzeugen als Zielobjekte, da die Räder als die niedrigsten Bereiche definierend gegenüber der Vorderseite und der Rückseite versetzt angeordnet sind.In this case, the evaluation information comprises five components. First, a rectangle is determined for each target object in the camera image, which encloses the target object in the camera image and thus also includes the projection of the cuboid that precisely surrounds the real, three-dimensional target object in the camera image. The rectangle can, but does not necessarily have to, precisely enclose the two-dimensional visible silhouette of the target object, but can be larger, especially on the underside. This is particularly true in the case of vehicles as target objects discussed here, since the wheels, which define the lowest areas, are arranged offset from the front and back.

Dabei sei an dieser Stelle noch angemerkt, dass, da der Rollwinkel der Kamera relativ zum Boden bzw. Kraftfahrzeug zumindest im Wesentlichen Null ist, die Vertikalrichtung in den Kamerabildern sowie „oben“ und „unten“ klar definiert und erkennbar sind.It should be noted at this point that since the roll angle of the camera relative to the ground or motor vehicle is at least essentially zero, the vertical direction in the camera images as well as “top” and “bottom” are clearly defined and recognizable.

Im vorliegenden Fall ist der Auswertungsalgorithmus auch trainiert, dann, wenn das Zielobjekt in dem Kamerabild teilweise verdeckt ist, tatsächliche, fehlende Abmessungen zu schätzen, wenn das Rechteck sowie weitere Auswertungsinformationen annotiert werden. Ferner kann in Ausführungsformen auch vorgesehen sein, bei nicht vollständig im Kamerabild sichtbaren, also durch den Bildrand abgeschnittenen Zielobjekten, insbesondere unter Nutzung von Vorabinformationen, insbesondere Dimensionsinformationen des Zielobjekts, fehlende Anteile außerhalb des Bildbereichs des Kamerabilds zu ergänzen, sodass das Rechteck aus dem Kamerabild herausragt. Die im Folgenden konkret diskutierten Beispiele gehen hiervon allerdings nicht aus.In the present case, the evaluation algorithm is also trained to estimate actual missing dimensions when the target object is partially obscured in the camera image when the rectangle and other evaluation information are annotated. Furthermore, in embodiments it can also be provided that, in the case of target objects that are not completely visible in the camera image, i.e. that are cut off by the edge of the image, missing parts outside the image area of the camera image can be supplemented, in particular using advance information, in particular dimensional information of the target object, so that the rectangle protrudes from the camera image . However, the examples discussed specifically below do not assume this.

Neben dem Rechteck wird als Auswertungsinformation durch den Auswertungsalgorithmus im Schritt S2 ferner als Trenninformation eine vertikale, gerade Trennlinie bestimmt, die das Rechteck B im Fall von zwei sichtbaren, vertikal verlaufenden Seiten des Zielobjekts in zwei Teilrechtecke aufteilt, die jeweils genau eine dieser vertikal verlaufenden Flächen des Zielobjekts, mithin eine Lateralseite (rechte oder linke Seite), Vorderseite oder Rückseite des Kraftfahrzeugs, beinhalten. Ist nur eine einzige dieser vertikal verlaufenden Seiten des Zielobjekts in dem Kamerabild zu sehen, kann die Trennlinie auch mit der rechten oder linken vertikalen Kante des Rechtecks übereinstimmen.In addition to the rectangle, a vertical, straight dividing line is also determined as separation information by the evaluation algorithm in step S2, which divides the rectangle B in the case of two visible, vertically extending sides of the target object into two partial rectangles, each of which is exactly one of these vertically extending surfaces of the target object, i.e. a lateral side (right or left side), front or rear of the motor vehicle. If only one of these vertical sides of the target object can be seen in the camera image, the dividing line can also correspond to the right or left vertical edge of the rectangle.

Als Auswertungsinformation wird weiterhin für jede, insbesondere anhand der Trenninformation in ihrer Lage zuordenbare, in dem Kamerabild sichtbare, vertikal verlaufende Seite des Zielobjekts eine Seitenklassifizierung ermittelt. Damit ist für jede dieser sichtbaren, vertikal verlaufenden Seiten bekannt, ob es sich um die Vorderseite, die Rückseite, die linke Seite oder die rechte Seite handelt. Dabei sei angemerkt, dass aus der Zuordnung einer Seitenklasse zu einer sichtbaren, vertikal verlaufenden Seite des Zielobjekts bereits zwangsläufig andere Seiten folgen, hier unter der Annahme, dass das Fahrzeug als Zielobjekt mit seinen Rädern auf dem Boden steht.As evaluation information, a side classification is also determined for each vertically running side of the target object that is visible in the camera image and can be assigned in particular based on the separation information. This means that for each of these visible, vertical pages it is known whether it is the front, the back, the left side or the right side. It should be noted that the assignment of a side class to a visible, vertical side of the target object inevitably results in other sides, here assuming that the vehicle as the target object stands with its wheels on the ground.

Durch den Auswertungsalgorithmus wird als Auswertungsinformation ferner eine Orientierungsinformation im zweidimensionalen Kamerabild ermittelt, und zwar im Fall zweier perspektivisch sichtbarer, vertikal verlaufender Seiten des Zielobjekts eine Orientierungslinie, im Fall nur einer sichtbaren, vertikal verlaufenden Seite einen Orientierungspunkt, zu dem die Orientierungslinie degeneriert ist. In einem solchen (zweiten) Fall wird die Orientierungsinformation für die eigentliche Herleitung des Quaders auch nur indirekt berücksichtigt.The evaluation algorithm also determines orientation information in the two-dimensional camera image as evaluation information, namely an orientation line in the case of two perspectively visible, vertically extending sides of the target object, and in the case of only one visible, vertically extending side an orientation point to which the orientation line has degenerated. In such a (second) case, the orientation information for the actual derivation of the cuboid is only taken into account indirectly.

Schließlich ermittelt der Auswertungsalgorithmus als Auswertungsinformation auch eine Klasse des Zielobjekts. Nachdem es sich bei den Zielobjekten um Fahrzeuge handelt, beschreibt die Klasse in jedem Fall, ob es sich um ein Zweirad/Motorrad, einen Personenkraftwagen, einen Lastkraftwagen, einen Bus, einen Traktor oder dergleichen handelt. Jedoch ist vorliegend eine noch detailliertere Unterteilung der Klassen nach der tatsächlichen Größe und Form der Fahrzeuge gegeben. So kann für PKWs beispielsweise noch unterschieden werden, ob es sich um einen Kleinwagen, untere Mittelklasse, obere Mittelklasse oder Oberklasse handelt und zudem ein Typ des Personenkraftwagens bestimmt werden, beispielsweise Kombinationskraftwagen, Kombinationslimousine, SUV, ... Entsprechend kann selbstverständlich auch für Lastkraftwagen, Busse, Zweiräder, Baufahrzeuge, Traktoren und dergleichen vorgegangen werden.Finally, the evaluation algorithm also determines a class of the target object as evaluation information. Since the target objects are vehicles, the class describes in each case whether it is a two-wheeler/motorcycle, a passenger car, a truck, a bus, a tractor or the like. However, in this case there is an even more detailed division of the classes according to the actual size and shape of the vehicles. For example, for cars, a distinction can be made as to whether it is a small car, lower middle class, upper middle class or luxury class and a type of passenger car can also be determined, for example combination power cars, combination sedans, SUVs, ... The same procedure can of course also be used for trucks, buses, two-wheelers, construction vehicles, tractors and the like.

Dabei ist jeder Klasse von Zielobjekten, beispielsweise „PKW, Kleinwagen, Kombinationslimousine“ eine Dimensionsinformation zugeordnet, welche zum einen Erwartungsabmessungen für Zielobjekte der Klasse, also beispielsweise eine erwartete Referenzhöhe, eine erwartete Referenzbreite und eine erwartete Referenzlänge, umfasst, zum anderen aber auch Intervalle enthält, in denen die entsprechenden Abmessungen üblicherweise liegen, insbesondere also Intervalle mit Minimal- und Maximalwerten für die Höhe, die Länge und die Breite. Dabei sei an dieser Stelle angemerkt, dass Dimensionsinformationen, dann aber für bestimmte Zielobjekte, diesen auch aus vorangehenden Zeitschritten bzw. von vorangehenden Zeitpunkten zugeordnet sein können. Gerade bei einem Kraftfahrzeug ist davon auszugehen, dass regelmäßig, insbesondere in Zeitschritten, Kamerabilder mit der Kamera aufgenommen und entsprechend ausgewertet werden. Zudem ist es bekannt und üblich, Zielobjekte zwischen diesen Zeitschritten nachzuverfolgen. Wird für ein Zielobjekt in einem Zeitschritt für diesen Zeitschritt die Ausdehnungsinformation, insbesondere also der Quader, bestimmt, beschreibt dieser durch seine Abmessungen für folgende Zeitschritte bereits Erwartungsabmessungen, insbesondere also eine Erwartungshöhe, eine Erwartungsbreite und eine Erwartungslänge. Diese können als Dimensionsinformation dem Zielobjekt, sofern es nachverfolgt wird, zugeordnet bleiben und insbesondere über die Zeit statistisch zusammengeführt werden, um zunehmend verlässlichere und verfeinerte Werte für die Erwartungsabmessungen zu erhalten. Wenn es um die Frage geht, ob eine dem Zielobjekt aus früheren Zeitschritten zugeordnete Dimensionsinformation oder eine der Klasse des Zielobjekts zugeordnete Dimensionsinformation zu verwenden ist, ist bei hinreichender Verlässlichkeit der aus den vorherigen Zeitschritten stammenden Dimensionsinformation diese vorzuziehen, insbesondere, wenn sie ohnehin allein aus dem Kamerabild, also ohne externe weitere Annahme bezüglich des Zielobjekts, ermittelt wurde.Each class of target objects, for example “cars, small cars, station wagons”, is assigned dimensional information which, on the one hand, includes expected dimensions for target objects of the class, for example an expected reference height, an expected reference width and an expected reference length, but on the other hand also contains intervals , in which the corresponding dimensions usually lie, in particular intervals with minimum and maximum values for height, length and width. It should be noted at this point that dimensional information, but then for certain target objects, can also be assigned to them from previous time steps or from previous points in time. Especially in the case of a motor vehicle, it can be assumed that camera images are recorded with the camera regularly, especially in time steps, and evaluated accordingly. In addition, it is known and common to track target objects between these time steps. If the expansion information, in particular the cuboid, is determined for a target object in a time step for this time step, its dimensions already describe expected dimensions for subsequent time steps, in particular an expected height, an expected width and an expected length. This can remain assigned as dimensional information to the target object if it is tracked and, in particular, can be statistically combined over time in order to obtain increasingly reliable and refined values for the expected dimensions. When it comes to the question of whether dimensional information assigned to the target object from previous time steps or dimensional information assigned to the class of the target object should be used, if the dimensional information from the previous time steps is sufficiently reliable, this is preferable, especially if it comes solely from the Camera image, i.e. without any external further assumption regarding the target object, was determined.

Beispiele für Kamerabilder mit durch die Auswertungsinformation gegebenen Annotationen sind in den 2 bis 4 dargestellt. Hierbei zeigt 2 schematisch ein Kamerabild 1, in dem als Zielobjekt 2 ein Kraftfahrzeug auf einer Straße 3 zu sehen ist. Zudem sind als Auswertungsinformationen das Rechteck 4, die als Trenninformation bestimmte Trennlinie 5 und die als Orientierungsinformation bestimmte Orientierungslinie 6 gezeigt. Die Orientierungslinie 6 wurde dabei für die im rechten Bereich des durch die Trennlinie 5 aufgeteilten Rechtecks 4 zu sehende rechte Seite 7 des Zielobjekts 2 als Lateralseite bestimmt, da dort aufgrund der Aufstandspunkte der Räder 8 des Zielobjekts 2 eine besonders klare, robuste Erkennung möglich ist. Die auf der linken Seite zu sehende, vertikal verlaufende Seite des Zielobjekts 2 ist entsprechend die Rückseite 9. Die Seitenklassifizierung gibt also für den linken Bereich des Rechtecks 4 „Rückseite“, für den rechten Bereich des Rechtecks 4 „rechte Seite“ an.Examples of camera images with annotations provided by the evaluation information are in the 2 until 4 shown. This shows 2 schematically a camera image 1 in which a motor vehicle on a road 3 can be seen as the target object 2. In addition, the rectangle 4, the dividing line 5 determined as separating information and the orientation line 6 determined as orientation information are shown as evaluation information. The orientation line 6 was determined as the lateral side for the right side 7 of the target object 2 that can be seen in the right area of the rectangle 4 divided by the dividing line 5, since a particularly clear, robust detection is possible there due to the contact points of the wheels 8 of the target object 2. The vertical side of the target object 2 that can be seen on the left side is the back side 9. The side classification therefore indicates “back side” for the left area of rectangle 4 and “right side” for the right area of rectangle 4.

Ersichtlich wurde im vorliegenden Beispiel das Rechteck 4 nach unten so verlängert, dass die Trennlinie 5 und die Orientierungslinie 6 sich an der unteren Kante 10 des Rechtecks 4 schneiden. Dies ist dahingehend gewollt, da ja auch die Räder 8 den deutlich tiefsten Punkt des Zielobjekts 2 bilden, welches an seinem Heck höher ist, so dass auf diese Weise diese Variation wenigstens teilweise abgedeckt wird. Dies ist ein Beispiel dafür, dass das Rechteck 4 nicht zwingend die zweidimensionale, sichtbare Silhouette des Zielobjekts 2 präzise umschließen muss, sondern größer sein kann, wenn die Umstände dies sinnvoll erscheinen lassen.As can be seen, in the present example, the rectangle 4 was extended downwards so that the dividing line 5 and the orientation line 6 intersect at the lower edge 10 of the rectangle 4. This is intentional because the wheels 8 also form the clearly lowest point of the target object 2, which is higher at its rear, so that in this way this variation is at least partially covered. This is an example of the fact that the rectangle 4 does not necessarily have to precisely enclose the two-dimensional, visible silhouette of the target object 2, but can be larger if the circumstances make this appear sensible.

Es sei noch angemerkt, dass in 2 die Klasse des Zielobjekts als „PKW, obere Mittelklasse, Kombinationskraftwagen“ bestimmt wurde.It should also be noted that in 2 the class of the target object was determined to be “passenger car, upper middle class, combination vehicle”.

Im Beispiel der 3 ist ein weiteres Kamerabild 11 gezeigt, in dem ein Zielobjekt 12, hier wiederum ein Kraftfahrzeug, zu sehen ist, das sich auf einer Fläche 13 befindet. Die Auswertungsinformationen umfassen wiederum das Rechteck 14 und die Trennlinie 15, die hier, da nur eine vertikal verlaufende Seite des Zielobjekts 12 sichtbar ist, mit der rechten Kante des Rechtecks 14 zusammenfällt und durch Strichlierung hervorgehoben ist. Entsprechend ist als Orientierungsinformation vorliegend nur ein Orientierungspunkt 16 gezeigt, der andeutet, dass die Orientierung der Lateralseite, vorliegend der rechten Seite 17 des Zielobjekts 12, in die Bildebene hineinverläuft. Die Räder 18 sind aufgrund der nicht sichtbaren Felgen auch schwerer zu erkennen. Die Seitenklassifizierung enthält vorliegend die Information, dass in dem Rechteck 14 die Frontseite 19 zu sehen ist. Sie kann ferner, da die Trennlinie 15 ja mit der rechten Kante des Rechtecks 14 übereinstimmt, die Information enthalten, dass dort die rechte Seite 17 folgen würde. Läge die Trennlinie 15, was auch möglich wäre, auf der gegenüberliegenden, linken Kante des Rechtecks 14, würde entsprechend gedacht die linke Seite 20 des Zielobjekts 12 folgen.In the example of 3 Another camera image 11 is shown, in which a target object 12, here again a motor vehicle, can be seen, which is located on a surface 13. The evaluation information in turn includes the rectangle 14 and the dividing line 15, which here, since only a vertical side of the target object 12 is visible, coincides with the right edge of the rectangle 14 and is highlighted by dashed lines. Accordingly, in this case only one orientation point 16 is shown as orientation information, which indicates that the orientation of the lateral side, in this case the right side 17 of the target object 12, extends into the image plane. The wheels 18 are also more difficult to recognize because the rims are not visible. In the present case, the page classification contains the information that the front 19 can be seen in the rectangle 14. Furthermore, since the dividing line 15 corresponds to the right edge of the rectangle 14, it can contain the information that the right side 17 would follow there. If the dividing line 15 were, which would also be possible, on the opposite, left edge of the rectangle 14, the left side 20 of the target object 12 would follow accordingly.

Die Klasse des Zielobjekts 12 wurde hier als „PKW, Kleinwagen, Kombinationslimousine“ bestimmt.The class of target object 12 was determined here as “car, small car, combination sedan”.

4 zeigt schließlich ein drittes Beispiel eines Kamerabilds 21, das wiederum ein als Fahrzeug ausgebildetes Zielobjekt 22 auf einer Straße 23 zeigt. Ersichtlich ist das hintere Ende des Zielobjekts 22 durch den Bildrand abgeschnitten. Dies führt dazu, dass die Auswertungsinformation hier unvollständig und nur teilweise bestimmt wurde. Tatsächlich konnten nur zwei Kanten des Rechtecks 24 ermittelt werden. Eine Trenninformation in diesem Sinne liegt nicht vor, da die rechte Seite 27 des Zielobjekts 22 auch nicht vollständig zu sehen ist, vgl. Abschnittkante 25. Die Orientierungslinie 26 konnte aufgrund der Sichtbarkeit der Räder 28 als Orientierungsinformation jedoch gut bestimmt werden. Die Seitenklassifizierung enthält zumindest die Information, dass die teilweise sichtbare, vertikal verlaufende Seite des Zielobjekts 22 die rechte Seite 27 ist. Dass sich links die Vorderseite 29 anschließen würde und rechts die (nicht sichtbare) Rückseite, erschließt sich unmittelbar daraus, dass das Zielobjekt 22 mit seinen Rädern 28 auf dem Boden steht. 4 finally shows a third example of a camera image 21, which in turn is a driving trained target object 22 shows on a road 23. It can be seen that the rear end of the target object 22 is cut off by the edge of the image. This means that the evaluation information here was incomplete and only partially determined. In fact, only two edges of the rectangle 24 could be determined. There is no separation information in this sense, since the right side 27 of the target object 22 cannot be completely seen, see section edge 25. However, the orientation line 26 could be easily determined as orientation information due to the visibility of the wheels 28. The side classification contains at least the information that the partially visible, vertical side of the target object 22 is the right side 27. The fact that the front 29 would be on the left and the (not visible) back on the right is immediately apparent from the fact that the target object 22 with its wheels 28 is on the ground.

Als Klasse des Zielobjekts 22 wurde hier „PKW, Oberklasse, SUV“ erkannt.The class of target object 22 was recognized as “car, luxury class, SUV”.

Zurückkehrend zu 1 wird in einem Schritt S3 nun die Bodenebene bestimmt, auf der das Zielobjekt 2, 12, 22 befindlich ist, beschrieben durch eine entsprechende Bodeninformation. In den 2 bis 4 ist die Bodenebene der Einfachheit halber durchgängig mit dem Bezugszeichen 30 angedeutet. Zu ihrer Ermittlung gibt es mehrere Möglichkeiten.Returning to 1 In a step S3, the ground level on which the target object 2, 12, 22 is located is determined, described by corresponding ground information. In the 2 until 4 For the sake of simplicity, the floor level is indicated throughout with the reference number 30. There are several ways to determine them.

Zum einen ist es denkbar, die Bodenebene 30 so zu bestimmen, dass sie mit der Referenz-Bodenfläche des Egoobjekts, hier des eigenen Kraftfahrzeugs, übereinstimmt. Diese Referenz-Bodenebene ist auch im dreidimensionalen Kamerakoordinatensystem aufgrund der externen Kalibrierung bekannt. Diese Annahme ist jedoch insbesondere dann, wenn sich der gesamte Boden in der Umgebung nicht durch eine einzige Ebene genau genug annähern lässt, beispielsweise bei Vorhandensein von Rampen, weniger geeignet.On the one hand, it is conceivable to determine the floor plane 30 so that it corresponds to the reference floor surface of the ego object, here your own motor vehicle. This reference ground plane is also known in the three-dimensional camera coordinate system due to external calibration. However, this assumption is particularly less suitable when the entire surrounding ground cannot be approximated accurately enough by a single plane, for example in the presence of ramps.

Daher kann in einer anderen Variante auch vorgesehen sein, zur Ermittlung einer speziell das Zielobjekt 2, 12, 22 betreffenden Bodenebene 30 Sensordaten eines Abstandssensors des Egoobjekts, der ebenso zu diesem extrinsisch kalibriert ist, und/oder Kartendaten, beispielsweise Kartendaten eines Navigationssystems des eigenen Kraftfahrzeugs als Egoobjekt, heranzuziehen. Bei einem derartigen, den Untergrund abtastenden Abstandssensor kann es sich beispielsweise um einen Radarsensor, einen Lidarsensor und/oder einen Laserscanner handeln.Therefore, in another variant, provision can also be made for determining a ground level 30 that specifically relates to the target object 2, 12, 22, using sensor data from a distance sensor of the ego object, which is also calibrated extrinsically to the ego object, and/or map data, for example map data from a navigation system of the own motor vehicle as an ego object. Such a distance sensor that scans the ground can be, for example, a radar sensor, a lidar sensor and/or a laser scanner.

Nachdem die Auswertungsinformation und die Bodenebene 30 bestimmt sind, wird in einem Schritt S4, vgl. wiederum 1, die Ausdehnungsinformation bestimmt. Hierzu werden zunächst unter Nutzung der Trenninformation zwei Fälle unterschieden, wenn das Zielobjekt 2, 12 vollständig in dem Kamerabild 1, 11 zu sehen ist (vgl. 2 und 3). In einem ersten Fall, vgl. 2, sind zwei vertikal verlaufende Seiten des Zielobjekts 2, im Beispiel der 2 die rechte Seite 7 und die Rückseite 9, in dem Kamerabild 1 perspektivisch zu sehen, so dass entsprechend auch eine Orientierungslinie 6 ermittelt werden konnte. In einem zweiten Fall ist jedoch nur eine vertikal verlaufende Seite, im Beispiel der 3 die Vorderseite 19, in dem Kamerabild 11 zu erkennen, so dass die Orientierungsinformation als Orientierungspunkt 16 ermittelt wurde.After the evaluation information and the floor level 30 have been determined, in a step S4, see again 1 , which determines the extent information. For this purpose, two cases are first distinguished using the separation information when the target object 2, 12 can be seen completely in the camera image 1, 11 (cf. 2 and 3 ). In a first case, cf. 2 , are two vertical sides of the target object 2, in the example the 2 the right side 7 and the back 9 can be seen in perspective in the camera image 1, so that an orientation line 6 could also be determined accordingly. In a second case, however, there is only one vertical side, in the example the 3 the front 19 can be seen in the camera image 11, so that the orientation information was determined as a landmark 16.

Ist aus der Trenninformation der erste Fall erkennbar, in dem die Trennlinie 5 (vgl. 2) das Rechteck 4 in zwei Teilrechtecke mit jeweils positivem Flächeninhalt aufteilt, wird zunächst der Schnittpunkt der Orientierungslinie 6 mit der unteren Kante 10 des Rechtecks 4 als erster Rechenpunkt 31 bestimmt, der Schnittpunkt der Orientierungslinie 6 mit der entsprechenden seitlichen Kante 32 des Rechtecks 4 als zweiter Rechenpunkt 33. Mit der rechten Kante 32 hat die Orientierungslinie 6 einen Schnittpunkt, da diese Kante das Teilrechteck begrenzt, das die rechte Seite 7 enthält, für die die Orientierungslinie 6 ermittelt wurde.If the separation information shows the first case in which the separation line 5 (cf. 2 ) the rectangle 4 is divided into two partial rectangles, each with a positive area, the intersection of the orientation line 6 with the lower edge 10 of the rectangle 4 is first determined as the first calculation point 31, the intersection of the orientation line 6 with the corresponding lateral edge 32 of the rectangle 4 as the second Calculation point 33. The orientation line 6 has an intersection with the right edge 32, since this edge delimits the partial rectangle that contains the right side 7 for which the orientation line 6 was determined.

Gemäß des Lochkameramodells, das hier als Aufnahmegeometriemodell verwendet wird, liegen alle Punkte im dreidimensionalen Kamerakoordinatensystem, die auf einen Punkt im Kamerabild 1 projiziert werden, auf einem Strahl. Dieser lässt sich mithilfe der intrinsischen Kamerakalibrierung berechnen. Dies geschieht vorliegend für die Rechenpunkte 31 und 32. Die Schnittpunkte dieser Strahlen mit der Bodenebene 30 im dreidimensionalen Kamerakoordinatensystem werden nun berechnet und bilden einen ersten Bodeneckpunkt des gesuchten Quaders für den ersten Rechenpunkt 31 und einen zweiten Bodeneckpunkt des gesuchten Quaders für den zweiten Rechenpunkt 33. Die Bodeneckpunkte sind durch eine Verbindungsgerade verbunden. Es wird nun eine eindeutige Suchgerade bestimmt, die in der Bodenebene 30 und durch den ersten Bodeneckpunkt verläuft sowie einen rechten Winkel mit der Verbindungsgeraden bildet.According to the pinhole camera model, which is used here as the recording geometry model, all points in the three-dimensional camera coordinate system that are projected onto a point in the camera image 1 lie on a ray. This can be calculated using intrinsic camera calibration. In the present case, this happens for the calculation points 31 and 32. The intersection points of these rays with the ground plane 30 in the three-dimensional camera coordinate system are now calculated and form a first ground corner point of the searched cuboid for the first calculation point 31 and a second ground corner point of the searched cuboid for the second calculation point 33. The ground corner points are connected by a connecting line. A clear search line is now determined which runs in the floor plane 30 and through the first floor corner point and forms a right angle with the connecting line.

Auf der Suchgeraden wiederum gibt es einen eindeutigen dritten Bodeneckpunkt, dessen Projektion in das Kamerabild 1 auf der Geraden liegt, die sich bei Verlängerung der linken Seitenkante 34 des Rechtecks 4 ergibt, die nicht von der Orientierungslinie 6 geschnitten wird. Liegt die Projektion des so bestimmten dritten Bodeneckpunkts nicht auf der linken Kante 34, sondern außerhalb des Rechtecks 4, muss eine Korrektur der Bodenebene 30, des Rechtecks 4 und/oder der Rechenpunkte 31 und/oder 33 derart vorgenommen werden, dass nach Neuberechnung des ersten, zweiten und dritten Bodeneckpunkts die Projektion des dritten Bodeneckpunkts in das Kamerabild 1 auf der Kante 34 zu liegen kommt.On the search line, in turn, there is a clear third ground corner point, the projection of which lies in the camera image 1 on the straight line that results from the extension of the left side edge 34 of the rectangle 4, which is not intersected by the orientation line 6. If the projection of the third floor corner point determined in this way is not on the left edge 34, but outside the rectangle 4, a correction of the floor plane 30, the rectangle 4 and/or the calculation points 31 and/or 33 must be made in such a way that after recalculation of the first , second and third floor corners point the projection of the third floor corner point in the camera image 1 comes to lie on the edge 34.

Wurde der dritte Bodeneckpunkt, genauer dessen dreidimensionale Position im Kamerakoordinatensystem, auf diese Weise ermittelt, kann auch der die Bodeneckpunkte der Bodenfläche des Quaders vervollständigende vierte Bodeneckpunkt leicht ermittelt werden, indem die Summe der Vektoren zu dem dritten Bodeneckpunkt und dem zweiten Bodeneckpunkt gebildet wird und hiervon der Vektor zu dem ersten Bodeneckpunkt subtrahiert wird.If the third floor corner point, more precisely its three-dimensional position in the camera coordinate system, has been determined in this way, the fourth floor corner point completing the floor corner points of the floor surface of the cuboid can also be easily determined by forming the sum of the vectors for the third floor corner point and the second floor corner point and from this the vector is subtracted to the first ground corner point.

Auch diesbezüglich wird hier überprüft, ob die Projektion des vierten Bodeneckpunkts im Rechteck 4 liegt. Ist dies nicht der Fall, kann eine Korrektur der Bodenebene 30, des Rechtecks 4, des ersten Rechenpunkts 31 und/oder des zweiten Rechenpunkts 33 vorgenommen werden, so dass nach Neuberechnung der Bodeneckpunkte der dritte und der vierte Bodeneckpunkt die beschriebenen Projektionsanforderungen erfüllen.In this regard, it is also checked here whether the projection of the fourth floor corner point lies in rectangle 4. If this is not the case, a correction can be made to the floor plane 30, the rectangle 4, the first calculation point 31 and/or the second calculation point 33, so that after recalculation of the floor corner points, the third and fourth floor corner points meet the described projection requirements.

Es liegt nun also eine rechteckige, durch die Bodeneckpunkte beschriebene Bodenfläche des Quaders, die vollständig in der Bodenebene 30 liegt, vor. Zum Erhalt des vollständigen Quaders wird nun noch die Höhe desselben bestimmt, die möglichst groß und derart gewählt wird, dass die Projektionen des Satzes aller Dachpunkte, die sich aus den Bodeneckpunkten durch Verschiebung um die Höhe in Richtung des nach oben gerichteten Normaleneinheitsvektors der Bodenebene 30 ergeben, in das Kamerabild 1 allesamt im Rechteck 4 enthalten sind. Die aus dem entsprechenden Satz von Dacheckpunkten gebildete Dachfläche bildet den oberen Abschluss des Quaders.There is now a rectangular floor surface of the cuboid, described by the floor corner points, which lies completely in the floor plane 30. To obtain the complete cuboid, the height of the cuboid is now determined, which is chosen as large as possible and in such a way that the projections of the set of all roof points, which result from the floor corner points by shifting the height in the direction of the upward normal unit vector of the floor plane 30 , in which camera image 1 is all contained in rectangle 4. The roof surface formed from the corresponding set of roof vertices forms the upper end of the cuboid.

Im zweiten Fall, vgl. 3, stimmt die Trennlinie 15 mit der linken oder rechten Kante des Rechtecks 14 überein. In diesem Fall wird nun als erster Rechenpunkt 35 die linke untere Ecke des Rechtecks 14 und als zweiter Rechenpunkt 36 die rechte untere Ecke des Rechtecks 14 gewählt, die hier auch dem Orientierungspunkt 16 entspricht. Analog dem ersten, mithilfe von 2 diskutierten Fall können mittels des Aufnahmegeometriemodells wiederum die entsprechenden Strahlen und die Schnittpunkte mit der Bodenebene 30, also der erste Bodeneckpunkt und der zweite Bodeneckpunkt bestimmt werden. Danach werden zwei Suchgeraden bestimmt, die durch die jeweiligen ersten bzw. zweiten Bodeneckpunkte in der Bodenebene 30 senkrecht zur Verbindungsgeraden zwischen dem ersten und dem zweiten Bodeneckpunkt verlaufen.In the second case, cf. 3 , the dividing line 15 corresponds to the left or right edge of the rectangle 14. In this case, the lower left corner of the rectangle 14 is selected as the first calculation point 35 and the lower right corner of the rectangle 14 is selected as the second calculation point 36, which here also corresponds to the orientation point 16. Analogous to the first, using 2 In the case discussed, the corresponding rays and the intersection points with the ground plane 30, i.e. the first ground corner point and the second ground corner point, can in turn be determined using the recording geometry model. Two search lines are then determined, which run through the respective first and second floor corner points in the floor plane 30 perpendicular to the straight line connecting the first and second floor corner points.

Sollte die Projektion einer dieser Suchgeraden vom Betrachter, also der Position der Kamera zum Aufnahmezeitpunkt des Kamerabildes 11, weg von dem ersten Rechenpunkt 35 oder dem zweiten Rechenpunkt 36 startend sofort aus dem Rechteck 14 herauslaufen, wird ein Korrekturschritt vorgenommen und die Bodenebene 30 und/oder das Rechteck 14 werden so korrigiert, dass nach Neuberechnung des ersten und des zweiten Bodeneckpunkts und der Suchgeraden die Projektionen der Suchgeraden vom ersten Rechenpunkt 35 bzw. zweiten Rechenpunkts 36 ausgehend zunächst innerhalb des Rechtecks 14 verlaufen.If the projection of one of these search lines from the viewer, i.e. the position of the camera at the time the camera image 11 was taken, immediately runs out of the rectangle 14, starting from the first calculation point 35 or the second calculation point 36, a correction step is carried out and the floor plane 30 and / or the rectangle 14 are corrected so that after recalculation of the first and second ground corner points and the search line, the projections of the search line starting from the first calculation point 35 or second calculation point 36 initially run within the rectangle 14.

Wie eingangs erwähnt, ist nun entweder aufgrund der Klasse des Zielobjekts 12 gemäß der Auswertungsinformation oder aber aus vorherigen Zeitschritten eine Dimensionsinformation mit Erwartungsausdehnungen bekannt. Nachdem im vorliegenden Fall im Kamerabild 11 lediglich die Vorderseite 19 des Zielobjekts 12 zu sehen ist, wird die dazu senkrechte Referenzlänge bzw. Erwartungslänge als Erwartungsabmessung in der Dimensionsinformation als ein Abstand gewählt, den es die Suchgeraden vom Betrachter weg entlangzulaufen gilt, um den dritten und den vierten Bodeneckpunkt mit dieser angenommenen Referenzlänge aufzufinden. Dabei wird bevorzugt eine Dimensionsinformation verwendet, die aus einer früheren Bestimmung der Ausdehnungsinformation, als perspektivisch zwei vertikal verlaufende Seiten des Zielobjekts 12 in dem Kamerabild zu sehen waren, ermittelt ist, wie bereits beschrieben wurde.As mentioned at the beginning, dimensional information with expected dimensions is now known either based on the class of the target object 12 according to the evaluation information or from previous time steps. Since in the present case only the front 19 of the target object 12 can be seen in the camera image 11, the reference length or expected length perpendicular to it is selected as the expected dimension in the dimensional information as a distance that must be walked along the search line away from the viewer in order to reach the third and to find the fourth ground corner point with this assumed reference length. Dimensional information is preferably used, which is determined from an earlier determination of the extent information when two vertically extending sides of the target object 12 were seen in the camera image, as already described.

Ist in einem Kamerabild 11 nur die rechte oder linke Seite des Zielobjekts 12, also eine Lateralseite, zu sehen, wird entsprechend die Referenzbreite aus der Dimensionsinformation hergeleitet und genutzt.If only the right or left side of the target object 12, i.e. a lateral side, can be seen in a camera image 11, the reference width is derived from the dimensional information and used.

Die Bestimmung der Dacheckpunkte für die Dachfläche erfolgt wie im ersten Fall.The roof vertex points for the roof area are determined as in the first case.

Durch die Seitenklassifizierung ist es zur Vervollständigung der Ausdehnungsinformation nun auch möglich, Seiten des Zielobjekts 2, 12, 22 den entsprechenden Seiten des Quaders zuzuordnen, insbesondere also festzustellen, welcher der Bodeneckpunkte jeweils dem vorderen/hinteren linken/ rechten unteren Eckpunkt des Quaders entspricht sowie entsprechend für die Dacheckpunkte.Through the side classification, in order to complete the extent information, it is now also possible to assign sides of the target object 2, 12, 22 to the corresponding sides of the cuboid, in particular to determine which of the ground corner points corresponds to the front/rear left/lower right corner point of the cuboid and accordingly for the roof checkpoints.

Es sei angemerkt, dass dann, wenn die der Klasse des Zielobjekts 2, 12, 22 zugeordnete Dimensionsinformation auch die beschriebenen Intervalle enthält, eine weitere Plausibilisierung der erhaltenen Abmessungen des Quaders und gegebenenfalls eine Korrektur erfolgen kann. Dafür werden die Abmessungen des bestimmten Quaders mit den jeweiligen Referenzintervallen für die Länge, die Breite und die Höhe von Zielobjekten für die Klasse verglichen und bei Abmessungen außerhalb der Intervalle entsprechende Maßnahmen ergriffen, beispielsweise die Abmessung, insbesondere symmetrisch, auf den Minimalwert bzw. Maximalwert des Intervalls gesetzt oder aber bei stärkeren Abweichungen das Ergebnis sogar verworfen.It should be noted that if the dimensional information assigned to the class of the target object 2, 12, 22 also contains the intervals described, a further plausibility check of the dimensions of the cuboid obtained and, if necessary, a correction can be carried out. To do this, the dimensions of the specific cuboid are compared with the respective reference intervals for the length, width and height of target objects for the class and, if dimensions are outside the intervals, appropriate measures are taken, for example the dimensions, in particular symmetrical ric, set to the minimum or maximum value of the interval or, in the case of larger deviations, the result is even rejected.

Auch im Sonderfall der 3, in der das Zielobjekt 22 nicht vollständig auf dem Kamerabild 21 zu sehen ist, kann im Schritt S4 der 1 eine Ausdehnungsinformation ermittelt werden, nachdem in solchen Fällen Teilinformationen herangezogen werden können, die dann durch geeignete Dimensionsinformationen ergänzt werden können. So ist in 3 nur der zweite Rechenpunkt 37 im Kamerabild 21 sichtbar; nachdem die untere Kante des Rechtecks 24 fehlt. Nichtsdestotrotz kann für den zweiten Rechenpunkt 37 wiederum der entsprechende zweite Bodeneckpunkt bestimmt werden. Mittels der Orientierungslinie 26 lässt sich ein Suchstrahl berechnen, der von der Bodenebene 30 vom zweiten Bodeneckpunkt wegverläuft. Entlang dieses Suchstrahls kann man nun einen Abstand, der einer Referenzlänge aus der Dimensionsinformation entspricht, entlanggehen, um den ersten Bodeneckpunkt zu bestimmen. Dann kann wie im zweiten Fall fortgefahren werden, wobei der Abstand entlang der Suchgeraden dann einer Referenzbreite entspricht.Even in the special case of 3 , in which the target object 22 cannot be completely seen on the camera image 21, can be done in step S4 1 An extent information can be determined after partial information can be used in such cases, which can then be supplemented by suitable dimensional information. That's how it is 3 only the second computing point 37 is visible in the camera image 21; after the lower edge of the rectangle 24 is missing. Nevertheless, the corresponding second ground corner point can again be determined for the second calculation point 37. Using the orientation line 26, a search beam can be calculated which extends away from the ground plane 30 from the second ground corner point. You can now walk along this search beam for a distance that corresponds to a reference length from the dimensional information in order to determine the first ground corner point. You can then continue as in the second case, with the distance along the search line then corresponding to a reference width.

Zurückkehrend zu 1 kann in Schritt S5 eine Nutzung der bestimmten Ausdehnungsinformation erfolgen, die ja die Position, Orientierung und Ausdehnung des entsprechenden Zielobjekts 2, 12, 22 beschreibt. Während derart bestimmte Ausdehnungsinformationen beispielsweise als Trainingsdaten im Sinne einer dreidimensionalen Annotierung für trainierte Funktionen herangezogen werden können, kann die Ausdehnungsinformation bevorzugt auch in einer Fahrzeugfunktion des eigenen Kraftfahrzeugs als Egoobjekt genutzt werden.Returning to 1 In step S5, the specific extent information can be used, which describes the position, orientation and extent of the corresponding target object 2, 12, 22. While such specific extent information can be used, for example, as training data in the sense of a three-dimensional annotation for trained functions, the extent information can preferably also be used in a vehicle function of one's own motor vehicle as an ego object.

5 zeigt in Form einer Prinzipskizze schematisch ein erfindungsgemäßes Kraftfahrzeug 38. Das Kraftfahrzeug 38 weist die vorliegend als Frontkamera auf das Vorfeld des Kraftfahrzeugs 38 gerichtete Kamera 39 auf, die die Kamerabilder liefert. Diese ist mithin mit einem Steuergerät 40 verbunden, das zur Durchführung des erfindungsgemäßen Verfahrens ausgebildet ist. Das Steuergerät oder ein weiteres Steuergerät kann auch zur Durchführung einer Fahrzeugfunktion ausgebildet sein, die, wie zu Schritt S5 beschrieben, die Ausdehnungsinformation nutzt, insbesondere in einer wenigstens teilweise automatischen Fahrzeugführungsfunktion. Weitere Komponenten des Kraftfahrzeugs 38 können ein Navigationssystem 41, welches digitale Kartendaten zur Bestimmung der Bodenebene 30 liefern kann, sowie Abstandssensoren 42, welche ebenso diesbezüglich Informationen liefern können, umfassen. 5 shows schematically a motor vehicle 38 according to the invention in the form of a schematic diagram. The motor vehicle 38 has the camera 39, which in the present case is a front camera and is directed towards the front of the motor vehicle 38 and which supplies the camera images. This is therefore connected to a control device 40, which is designed to carry out the method according to the invention. The control device or another control device can also be designed to carry out a vehicle function that, as described in step S5, uses the extent information, in particular in an at least partially automatic vehicle guidance function. Further components of the motor vehicle 38 can include a navigation system 41, which can provide digital map data for determining the ground level 30, as well as distance sensors 42, which can also provide information in this regard.

Das Steuergerät 40 umfasst neben wenigstens einem Speichermittel zur Durchführung des erfindungsgemäßen Verfahrens insbesondere eine Schnittstelle und/oder Steuereinheit zur Ansteuerung der Kamera 39 bzw. zur Entgegennahme des zweidimensionalen Kamerabilds 1, 11, 21 (Schritt S1), eine Auswertungseinheit zur Anwendung des Auswertungsalgorithmus auf das Kamerabild 1, 11, 21 zur Ermittlung der Auswertungsinformation gemäß Schritt S2, eine Bodenebenenermittlungseinheit zur Ermittlung der die Bodenebene 30 beschreibenden Bodeninformation, wie zu Schritt S3 beschrieben, sowie eine Ausdehnungsinformationsermittlungseinheit zur Ermittlung der Ausdehnungsinformation gemäß Schritt S4.The control device 40 comprises, in addition to at least one storage means for carrying out the method according to the invention, in particular an interface and/or control unit for controlling the camera 39 or for receiving the two-dimensional camera image 1, 11, 21 (step S1), an evaluation unit for applying the evaluation algorithm to the Camera image 1, 11, 21 for determining the evaluation information according to step S2, a ground level determination unit for determining the ground information describing the ground level 30, as described in step S3, and an extent information determination unit for determining the extent information according to step S4.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • EP 3594002 A1 [0007]EP 3594002 A1 [0007]

Claims (18)

Verfahren zur Ermittlung einer dreidimensionalen Ausdehnungsinformation eines Zielobjekts (2, 12, 22), insbesondere eines Fahrzeugs, aus einem das Zielobjekt (2, 12, 22) zeigenden, zweidimensionalen Kamerabild (1, 11, 21), welches mit einer Kamera (39), die intrinsisch und extrinsisch bezüglich eines die Kamera (39) tragenden Egoobjekts, insbesondere Kraftfahrzeugs (38), kalibriert ist, aufgenommen wird, wobei aus einer Bodeninformation zu der dreidimensionalen Lage der Bodenebene (30) unter dem Zielobjekt (2, 12, 22) zu der Kamera (39) und einer durch Auswertung des Kamerabildes (1, 11, 21) mittels eines Auswertungsalgorithmus ermittelten, zumindest ein das Zielobjekt (2, 12, 22) in dem Kamerabild (1, 11, 21) einschließendes Rechteck (4, 14, 24) beschreibenden zweidimensionalen Auswertungsinformation die dreidimensionale Ausdehnungsinformation bestimmt wird, dadurch gekennzeichnet, dass - als Teil der Auswertungsinformation zusätzlich eine die Orientierung des Zielobjekts (2, 12, 22) für wenigstens eine vertikal verlaufende Seite des Zielobjekts (2, 12, 22) an deren unterem Rand in dem Kamerabild (1, 11, 21) anzeigende Orientierungsinformation, insbesondere je nach Bildinhalt des Kamerabildes (1, 11, 21) eine Orientierungslinie (6, 26) oder ein Orientierungspunkt (16), ermittelt wird, und - für wenigstens einen mittels der Orientierungsinformation und des Rechtecks (4, 14, 24) ermittelten Rechenpunkt (31, 33, 35, 36, 37) des Kamerabildes (1, 11, 21) die dreidimensionale Position eines zugeordneten, auf der Bodenebene (30) liegenden Bodeneckpunkts der Bodenfläche eines das Zielobjekt (2, 12, 22) wenigstens teilweise umschließenden Quaders unter Verwendung eines Aufnahmegeometriemodells der Kamera (39) ermittelt wird und daraus die Ausdehnungsinformation als zumindest die durch das Zielobjekt (2, 12, 22) abgedeckte Bodenfläche des Quaders, insbesondere als der Quader, rekonstruiert wird.Method for determining three-dimensional expansion information of a target object (2, 12, 22), in particular a vehicle, from a two-dimensional camera image (1, 11, 21) showing the target object (2, 12, 22), which has a camera (39) which is intrinsically and extrinsically calibrated with respect to an ego object carrying the camera (39), in particular a motor vehicle (38), is recorded, with ground information relating to the three-dimensional position of the ground plane (30) under the target object (2, 12, 22) to the camera (39) and a rectangle (4) which is determined by evaluating the camera image (1, 11, 21) using an evaluation algorithm and which encloses the target object (2, 12, 22) in the camera image (1, 11, 21), 14, 24) describing the two-dimensional evaluation information, the three-dimensional expansion information is determined, characterized in that - as part of the evaluation information, an additional orientation of the target object (2, 12, 22) for at least one vertically extending side of the target object (2, 12, 22) at the lower edge of which in the camera image (1, 11, 21) orientation information, in particular depending on the image content of the camera image (1, 11, 21), an orientation line (6, 26) or an orientation point (16), is determined, and - for at least one computing point (31, 33, 35, 36, 37) of the camera image (1, 11, 21), determined by means of the orientation information and the rectangle (4, 14, 24), the three-dimensional position of an assigned one lying on the ground level (30). The ground corner point of the ground surface of a cuboid at least partially enclosing the target object (2, 12, 22) is determined using a recording geometry model of the camera (39) and from this the expansion information is determined as at least the ground surface of the cuboid covered by the target object (2, 12, 22), especially when the cuboid is reconstructed. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Bodenebene (30) unter dem Zielobjekt (2, 12, 22) unter Verwendung der extrinsischen Kalibrierung der Kamera (39) - mittels der Annahme gleicher Lage wie die Bodenebene unter dem Egoobjekt oder - aus Sensordaten eines weiteren, ebenso extrinsisch mit dem Egoobjekt registrierten Abstandssensors (42), insbesondere eines Laserscanners und/oder Radarsensors, und/oder unter Verwendung von Kartendaten ermittelt wird.Procedure according to Claim 1 , characterized in that the ground level (30) under the target object (2, 12, 22) using the extrinsic calibration of the camera (39) - by assuming the same position as the ground level under the ego object or - from sensor data from another, as well is determined extrinsically with the ego object registered distance sensor (42), in particular a laser scanner and / or radar sensor, and / or using map data. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass als Aufnahmegeometriemodell ein Lochkameramodell verwendet wird.Procedure according to Claim 1 or 2 , characterized in that a pinhole camera model is used as the recording geometry model. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, - dass für wenigstens eine vertikal verlaufende Seite des Zielobjekts (2, 12, 22), insbesondere wenigstens die wenigstens eine Seite, der die Orientierungsinformation zugeordnet ist, als Teil der Auswertungsinformation eine Seitenklassifizierung in Vorderseite (19, 29), Rückseite (9) oder Lateralseite, insbesondere rechte Seite (7, 17) oder linke Seite (20, 27), ermittelt wird und/oder - dass die Orientierungsinformation bei mehr als einer in dem Kamerabild (1, 11, 21) sichtbaren, vertikal verlaufenden Seite des Zielobjekts (2, 12, 22) als Orientierungslinie (6, 26) entlang des unteren Randes einer der perspektivisch in dem Kamerabild (1, 11, 21) sichtbaren Seiten, insbesondere einer Lateralseite, des Zielobjekts (2, 12, 22) ermittelt wird, bei einem Fahrzeug als Zielobjekt (2, 12, 22) insbesondere als den unteren Rand von Rädern (8, 18, 28) des Fahrzeugs touchierende Orientierungslinie (6, 26), und/oder - dass bei nur einer in dem Kamerabild (1, 11, 21) sichtbaren vertikal verlaufenden Seite des Zielobjekts (2, 12, 22) die Orientierungsinformation als ein eine in die Bildebene verlaufende Orientierung anzeigender Orientierungspunkt (16) bestimmt wird.Method according to one of the preceding claims, characterized in that - for at least one vertically extending side of the target object (2, 12, 22), in particular at least the at least one side to which the orientation information is assigned, a page classification in front ( 19, 29), back side (9) or lateral side, in particular right side (7, 17) or left side (20, 27), is determined and/or - that the orientation information is present in more than one in the camera image (1, 11, 21) visible, vertical side of the target object (2, 12, 22) as an orientation line (6, 26) along the lower edge of one of the sides visible in perspective in the camera image (1, 11, 21), in particular a lateral side, of the target object ( 2, 12, 22), in the case of a vehicle as a target object (2, 12, 22), in particular as an orientation line (6, 26) touching the lower edge of wheels (8, 18, 28) of the vehicle, and/or - that with only one vertical side of the target object (2, 12, 22) visible in the camera image (1, 11, 21), the orientation information is determined as an orientation point (16) indicating an orientation extending into the image plane. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Auswertungsinformation eine die Lage wenigstens einer vertikal verlaufenden, in dem Kamerabild (1, 11, 21) sichtbaren Seite des Zielobjekts (2, 12, 22) beschreibende Trenninformation, insbesondere eine vertikal verlaufende Trennlinie (5, 15) zwischen unterschiedlichen vertikal verlaufenden Seiten des Zielobjekts (2, 12, 22) in dem Kamerabild (1, 11, 21), umfassend ermittelt wird.Method according to one of the preceding claims, characterized in that the evaluation information is separating information describing the position of at least one vertically extending side of the target object (2, 12, 22) that is visible in the camera image (1, 11, 21), in particular a vertically extending separating line (5, 15) between different vertically extending sides of the target object (2, 12, 22) in the camera image (1, 11, 21) is comprehensively determined. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass bei zwei in dem Kamerabild (1, 11, 21) sichtbare, vertikal verlaufende Seiten des Zielobjekts (2, 12, 22) anzeigender Trenninformation und auf eine der sichtbaren Seiten, insbesondere eine Lateralseite, bezogener Orientierungslinie (6, 26) als Orientierungsinformation zur Bestimmung der durch das Zielobjekt (2, 12, 22) auf der Bodenebene (30) abgedeckten Bodenfläche - ein erster Rechenpunkt (31) als Schnittpunkt der Orientierungslinie (6, 26) mit der unteren Kante (10) des Rechtecks (4, 14, 24) in dem Kamerabild (1, 11, 21) und ein zweiter Rechenpunkt (33) als Schnittpunkt der Orientierungslinie (6, 26) mit der der Seite, auf die die Orientierungslinie (6, 26) bezogen ist, gemäß der Trenninformation zugeordneten vertikalen Kante (32) des Rechtecks (4, 14, 24) ermittelt werden, - mittels des Aufnahmegeometriemodells für den ersten und den zweiten Rechenpunkt (31, 33) Strahlen, auf denen die Rechenpunkte (31, 33) liegen, ermittelt werden und die jeweiligen Schnittpunkte der Strahlen mit der Bodenebene (30) als erste und zweite Bodeneckpunkte im dreidimensionalen Raum bestimmt werden, - eine senkrecht zu einer den ersten und den zweiten Bodeneckpunkt verbindenden Verbindungsgeraden in der Bodenebene (30) liegende, durch den ersten Bodeneckpunkt verlaufende Suchgerade sowie ein auf der Suchgerade liegender dritter Bodeneckpunkt, dessen aufgrund des Aufnahmegeometriemodells bestimmbare Projektion in das Kamerabild (1, 11, 21) auf der der Kante (32) der Seite, auf die die Orientierungslinie (6, 26) bezogen ist, gegenüberliegenden vertikalen Kante (34) des Rechtecks (4, 14, 24) in dem Kamerabild (1, 11, 21) liegt, im dreidimensionalen Raum bestimmt werden, und - ein vierter, die rechteckförmige Bodenfläche vervollständigender Bodeneckpunkt aus dem ersten, zweiten und dritten Bodeneckpunkt bestimmt wird, insbesondere durch Addition der dem dritten und dem zweiten Bodeneckpunkt zugehörigen Vektoren und Subtraktion des dem ersten Bodeneckpunkt zugehörigen Vektors.Procedure according to Claim 5 , characterized in that with two vertically extending sides of the target object (2, 12, 22) visible in the camera image (1, 11, 21) displaying separation information and an orientation line (6, 26) related to one of the visible sides, in particular a lateral side ) as orientation information for determining the floor area covered by the target object (2, 12, 22) on the floor level (30) - a first calculation point (31) as the intersection of the orientation line (6, 26) with the lower edge (10) of the rectangle ( 4, 14, 24) in the camera image (1, 11, 21) and a second calculation point (33) as the intersection of the orientation line (6, 26) with that of the side to which the orientation line (6, 26) is related, according to vertical edge (32) of the rectangle (4, 14, 24) assigned to the separation information are determined, - determined by means of the recording geometry model for the first and second computing points (31, 33) rays on which the computing points (31, 33) lie and the respective intersection points of the rays with the floor plane (30) are determined as first and second floor corner points in three-dimensional space, - a search line lying perpendicular to a connecting line in the floor plane (30) connecting the first and second floor corner points and running through the first floor corner point and a search line on the Third ground corner point lying in a straight line, the projection of which can be determined based on the recording geometry model into the camera image (1, 11, 21) on the vertical edge (34) opposite the edge (32) of the side to which the orientation line (6, 26) is related Rectangle (4, 14, 24) in the camera image (1, 11, 21) is determined in three-dimensional space, and - a fourth floor corner point completing the rectangular floor surface is determined from the first, second and third floor corner points, in particular by addition the vectors associated with the third and second ground corner points and subtraction of the vector associated with the first ground corner point. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass bei eine Projektion auf einer Verlängerung der entsprechenden Kante (34) außerhalb des Rechtecks (4, 14, 24) aufweisend bestimmtem dritten Bodeneckpunkt und/oder bei eine Projektion außerhalb des Rechtecks (4, 14, 24) aufweisend bestimmtem vierten Bodeneckpunkt die Bodenebene (30) und/oder die Orientierungslinie (6, 26) und/oder das Rechteck (4, 14, 24) und/oder der erste und/oder zweite Rechenpunkt (31, 33) derart korrigiert werden, dass die jeweiligen Projektionen auf der Kante (34) bzw. innerhalb des Rechtecks (4, 14, 24) zu liegen kommen.Procedure according to Claim 6 , characterized in that in a projection on an extension of the corresponding edge (34) outside the rectangle (4, 14, 24) having a certain third bottom corner point and / or in a projection outside the rectangle (4, 14, 24) having a certain fourth Ground corner point, the ground plane (30) and / or the orientation line (6, 26) and / or the rectangle (4, 14, 24) and / or the first and / or second calculation point (31, 33) are corrected in such a way that the respective Projections come to lie on the edge (34) or within the rectangle (4, 14, 24). Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass als Teil der Auswertungsinformation eine Klasse des Zielobjekts (2, 12, 22), der eine wenigstens eine Erwartungsabmessung eines Zielobjekts (2, 12, 22) der Klasse beschreibende Dimensionsinformation zugeordnet ist, ermittelt wird und/oder dem Zielobjekt (2, 12, 22) aus einer zeitlich vorhergehenden Ermittlung der Ausdehnungsinformation eine wenigstens eine Erwartungsabmessung des Zielobjekts (2, 12, 22) beschreibende Dimensionsinformation zugeordnet wird.Procedure according to one of the Claims 5 until 7 , characterized in that as part of the evaluation information, a class of the target object (2, 12, 22), to which dimensional information describing at least one expected dimension of a target object (2, 12, 22) of the class is assigned, is determined and / or the target object ( 2, 12, 22) a dimension information describing at least one expected dimension of the target object (2, 12, 22) is assigned from a previous determination of the extent information. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass bei nur eine in dem Kamerabild (1, 11, 21) sichtbare vertikal verlaufende Seite des Zielobjekts (2, 12, 22) anzeigender Trenninformation zur Bestimmung der durch das Zielobjekt (2, 12, 22) auf der Bodenebene (30) abgedeckten Bodenfläche - ein erster Rechenpunkt (35) als unterer linker Eckpunkt des Rechtecks (4, 14, 24) in dem Kamerabild (1, 11, 21) und ein zweiter Rechenpunkt (36) als unterer rechter Eckpunkt des Rechtecks (4, 14, 24) in dem Kamerabild (1, 11, 21) ermittelt werden, - mittels des Aufnahmegeometriemodells für den ersten und den zweiten Rechenpunkt (35, 36) Strahlen, auf denen die Rechenpunkte (35, 36) liegen, ermittelt werden und die jeweiligen Schnittpunkte der Strahlen mit der Bodenebene (30) als erste und zweite Bodeneckpunkte im dreidimensionalen Raum bestimmt werden, und - zwei senkrecht zu einer den ersten und den zweiten Bodeneckpunkt verbindenden Verbindungsgeraden in der Bodenebene (30) liegende Suchgeraden durch die jeweiligen Bodeneckpunkte und dritte und vierte Bodeneckpunkte entlang der jeweiligen Suchgerade in einer Richtung weg von der Kamera (39) bei Aufnahme des Kamerabildes (1, 11, 21) in einem gemäß der Dimensionsinformation ermittelten Abstand im dreidimensionalen Raum bestimmt werden.Procedure according to Claim 8 , characterized in that with only one vertical side of the target object (2, 12, 22) visible in the camera image (1, 11, 21) displaying separation information for determining the distance through the target object (2, 12, 22) on the ground level ( 30) covered floor area - a first calculation point (35) as the lower left corner point of the rectangle (4, 14, 24) in the camera image (1, 11, 21) and a second calculation point (36) as the lower right corner point of the rectangle (4, 14, 24) are determined in the camera image (1, 11, 21), - rays on which the computing points (35, 36) lie are determined by means of the recording geometry model for the first and second computing points (35, 36) and the respective intersection points of the rays with the floor plane (30) are determined as first and second floor corner points in three-dimensional space, and - two search lines lying perpendicular to a connecting line in the floor plane (30) connecting the first and second floor corner points through the respective floor corner points and third and fourth ground corner points are determined along the respective search line in a direction away from the camera (39) when the camera image (1, 11, 21) is recorded at a distance in three-dimensional space determined according to the dimensional information. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass bei initial unmittelbar in ihrer Projektion in das Kamerabild (1, 11, 21) aus dem Rechteck (4, 14, 24) hinauslaufenden Suchgeraden die Bodenebene (30) und/oder das Rechteck (4, 14, 24) derart korrigiert werden, dass die Projektionen der Suchgeraden zumindest bis zu dem Abstand innerhalb des Rechtecks (4, 14, 24) in dem Kamerabild (1, 11, 21) verlaufen.Procedure according to Claim 9 , characterized in that when the search line initially runs out of the rectangle (4, 14, 24) directly in its projection into the camera image (1, 11, 21), the ground plane (30) and / or the rectangle (4, 14, 24) be corrected in such a way that the projections of the search line extend at least up to the distance within the rectangle (4, 14, 24) in the camera image (1, 11, 21). Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass bei Vorliegen einer Seitenklassifizierung als Teil der Auswertungsinformation die Erwartungsabmessung in der zu der in dem Kamerabild (1, 11, 21) sichtbaren, vertikal verlaufenden, klassifizierten Seite senkrechten Richtung aus der Dimensionsinformation als Abstand ausgewählt wird.Procedure according to Claim 9 or 10 , characterized in that if a page classification is present as part of the evaluation information, the expected dimension in the direction perpendicular to the vertically running, classified page visible in the camera image (1, 11, 21) is selected from the dimensional information as a distance. Verfahren nach einem der Ansprüche 8 bis 11, dadurch gekennzeichnet, bei nicht vollständig in dem Kamerabild (1, 11, 21) aufgenommenem Zielobjekt (2, 12, 22), insbesondere bei nur einem bestimmbaren Bodeneckpunkt, fehlende Information zur Rekonstruktion der Bodenfläche der Dimensionsinformation entnommen wird.Procedure according to one of the Claims 8 until 11 , characterized in that if the target object (2, 12, 22) is not completely recorded in the camera image (1, 11, 21), in particular if there is only one determinable ground corner point, missing information for reconstructing the ground surface is taken from the dimensional information. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine der Bodenfläche zugeordnete Dachfläche des Quaders durch den Satz von sich durch Addition eines gemeinsamen Höhenwerts multipliziert mit dem Normaleneinheitsvektor der Bodenebene (30) zu den Bodeneckpunkten ergebenden Dacheckpunkten, deren Projektionen in das Kamerabild (1, 11, 21) bei maximalem Höhenwert für mindestens einen Dacheckpunkt, insbesondere alle Dacheckpunkte, innerhalb des Rechtecks (4, 14, 24) liegen, bestimmt wird.Method according to one of the preceding claims, characterized in that a roof area of the cuboid assigned to the floor area is determined by the set of roof vertices resulting from the addition of a common height value multiplied by the normal unit vector of the floor plane (30) to the floor corners, whose projections into the camera image (1 , 11, 21) is determined at the maximum height value for at least one roof checkpoint, in particular all roof checkpoints, within the rectangle (4, 14, 24). Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass als der Auswertungsalgorithmus eine trainierte Funktion, insbesondere ein neuronales Netzwerk, verwendet wird, welche insbesondere mit händisch annotierten Kamerabildern als Trainingsdaten trainiert wurde.Method according to one of the preceding claims, characterized in that a trained function, in particular a neural network, is used as the evaluation algorithm, which was trained in particular with manually annotated camera images as training data. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass für zumindest einen Teil nicht vollständig in dem Kamerabild (1, 11, 21) aufgenommener Zielobjekte (2, 12, 22) der Auswertungsalgorithmus, insbesondere aufgrund entsprechenden Trainings, zur Abschätzung des vollständigen, aus dem Kamerabild (1, 11, 21) hinausragenden Rechtecks (4, 14, 24) ausgebildet ist.Method according to one of the preceding claims, characterized in that for at least some of the target objects (2, 12, 22) that are not completely recorded in the camera image (1, 11, 21), the evaluation algorithm, in particular based on appropriate training, is used to estimate the complete The rectangle (4, 14, 24) protruding from the camera image (1, 11, 21) is formed. Kraftfahrzeug (38), aufweisend ein zur Durchführung eines Verfahrens nach einem der vorangehenden Ansprüche ausgebildetes Steuergerät (40) und die Kamera (39).Motor vehicle (38), comprising a control device (40) designed to carry out a method according to one of the preceding claims and the camera (39). Computerprogramm, welches die Schritte eines Verfahrens nach einem der Ansprüche 1 bis 15 durchführt, wenn es auf einer Recheneinrichtung ausgeführt wird.Computer program that contains the steps of a method according to one of the Claims 1 until 15 performs when it is executed on a computing device. Elektronisch lesbarer Datenträger, auf dem ein Computerprogramm nach Anspruch 17 gespeichert ist.Electronically readable data carrier on which a computer program can be written Claim 17 is stored.
DE102022112317.0A 2022-05-17 2022-05-17 Method for determining three-dimensional extent information of a target object, motor vehicle, computer program and electronically readable data carrier Pending DE102022112317A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022112317.0A DE102022112317A1 (en) 2022-05-17 2022-05-17 Method for determining three-dimensional extent information of a target object, motor vehicle, computer program and electronically readable data carrier

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022112317.0A DE102022112317A1 (en) 2022-05-17 2022-05-17 Method for determining three-dimensional extent information of a target object, motor vehicle, computer program and electronically readable data carrier

Publications (1)

Publication Number Publication Date
DE102022112317A1 true DE102022112317A1 (en) 2023-11-23

Family

ID=88599799

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022112317.0A Pending DE102022112317A1 (en) 2022-05-17 2022-05-17 Method for determining three-dimensional extent information of a target object, motor vehicle, computer program and electronically readable data carrier

Country Status (1)

Country Link
DE (1) DE102022112317A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3594002A1 (en) 2017-03-01 2020-01-15 Tecglass, S.L. Machine and method for multi-pass digital printing on glass sheets with minimised print travel

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3594002A1 (en) 2017-03-01 2020-01-15 Tecglass, S.L. Machine and method for multi-pass digital printing on glass sheets with minimised print travel

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LI, Buyu, et al. Gs3d: An efficient 3d object detection framework for autonomous driving. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019. S. 1019-1028
YANG, Shichao; SCHERER, Sebastian. Cubeslam: Monocular 3-d object slam. IEEE Transactions on Robotics, 2019, 35. Jg., Nr. 4, S. 925-938

Similar Documents

Publication Publication Date Title
DE102014222617B4 (en) Vehicle detection method and vehicle detection system
EP2991874B1 (en) Provision of an efficient environmental map for a vehicle
DE102018215344A1 (en) SYSTEM AND METHOD FOR VEHICLE CONVOIS
DE102017203276B4 (en) Method and device for determining a trajectory in off-road scenarios
DE102013205882A1 (en) Method and device for guiding a vehicle around an object
DE102021119920A1 (en) Method for predicting a trajectory of a vehicle
DE102019114622A1 (en) DETECTION AND PLANAR REPRESENTATION OF THREE-DIMENSIONAL DRIVING TRACKS IN A STREET SCENE
DE102011111440A1 (en) Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment
DE102010018994A1 (en) Method for operating a driver assistance system of a vehicle, driver assistance system and vehicle
DE112018000862T5 (en) Apparatus and method for displaying information
EP2562681B1 (en) Object tracking method for a camera-based driver assistance system
DE102016202594A1 (en) Method and device for interpreting a vehicle environment of a vehicle and vehicle
DE102016104730A1 (en) Method for detecting an object along a road of a motor vehicle, computing device, driver assistance system and motor vehicle
DE102018100909A1 (en) Method of reconstructing images of a scene taken by a multifocal camera system
EP3520023A1 (en) Detection and validation of objects from sequential images from a camera
DE112022001133T5 (en) Systems and methods for vehicle movement planning
DE102017008569A1 (en) A method of operating a driver assistance system for a motor vehicle using a vector-based and a grid-based environment map and driver assistance system
DE102014201409B4 (en) PARKING - TRACKING DEVICE AND PROCEDURES OF THE SAME
DE112015000763T5 (en) Vehicle environment image display device and vehicle environment image display method
DE102019208507A1 (en) Method for determining the degree of overlap between an object and a lane
DE102019218479A1 (en) Method and device for classifying objects on a roadway in the surroundings of a vehicle
DE102016218849A1 (en) Detection and tracking of objects from images of a camera
DE102018132676A1 (en) Method for locating a vehicle in an environment
DE102022112317A1 (en) Method for determining three-dimensional extent information of a target object, motor vehicle, computer program and electronically readable data carrier
DE102022112318B3 (en) Method for determining extent information of a target object, motor vehicle, computer program and electronically readable data carrier

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication