DE102019206231A1 - Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line - Google Patents

Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line Download PDF

Info

Publication number
DE102019206231A1
DE102019206231A1 DE102019206231.8A DE102019206231A DE102019206231A1 DE 102019206231 A1 DE102019206231 A1 DE 102019206231A1 DE 102019206231 A DE102019206231 A DE 102019206231A DE 102019206231 A1 DE102019206231 A1 DE 102019206231A1
Authority
DE
Germany
Prior art keywords
image
camera
road vehicle
pixel
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102019206231.8A
Other languages
German (de)
Inventor
Zhihu Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019206231.8A priority Critical patent/DE102019206231A1/en
Publication of DE102019206231A1 publication Critical patent/DE102019206231A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

Verfahren zur kamerabasierten Positionsbestimmung für ein Objekt (62) in einem Umfeld (60) eines Offroad-Fahrzeugs, umfassend Erhalten eines ersten Bildes (24) und eines zweiten Bildes (34), wobei das erste Bild (24) von einer ersten Kamera aus einer Farbkamera (20) und einer Wärmekamera (30) beim Erfassen des Umfelds (60) des Offroad-Fahrzeugs erzeugt ist, wobei das zweite Bild (34) von einer zweiten Kamera aus der Farbkamera (20) und der Wärmekamera (30) beim Erfassen des Umfelds (60) des Offroad-Fahrzeugs erzeugt ist; Festlegen eines Bildbereichs (342) im zweiten Bild (34), der zumindest teilweise das Objekt (62) umfasst; Ermitteln einer einem ersten Bildpunkt (244) des Objektes (62) im ersten Bild (24) entsprechenden epipolaren Bildlinie (344) im zweiten Bild (34); Ermitteln eines Überlappungsabschnittes (346) zwischen der epipolaren Bildlinie (344) und dem Bildbereich (342); Bestimmen einer Tiefeninformation des ersten Bildpunktes (244) basierend auf dem Überlappungsabschnitt (346).

Figure DE102019206231A1_0000
Method for the camera-based position determination for an object (62) in an environment (60) of an off-road vehicle, comprising obtaining a first image (24) and a second image (34), the first image (24) from a first camera from a Color camera (20) and a thermal camera (30) when capturing the environment (60) of the off-road vehicle is generated, the second image (34) from a second camera from the color camera (20) and the thermal camera (30) when capturing the Environment (60) of the off-road vehicle is generated; Defining an image area (342) in the second image (34) which at least partially comprises the object (62); Determining an epipolar image line (344) corresponding to a first image point (244) of the object (62) in the first image (24) in the second image (34); Determining an overlap portion (346) between the epipolar image line (344) and the image area (342); Determining depth information of the first image point (244) based on the overlap section (346).
Figure DE102019206231A1_0000

Description

TECHNISCHES GEBIETTECHNICAL AREA

Die vorliegende Erfindung betrifft das Gebiet der Offroad-Fahrzeuge, insbesondere der autonom beziehungsweise teilautonom fahrenden Offroad-Fahrzeuge. Konkret betrifft die vorliegende Erfindung eine Vorrichtung, ein Verfahren, ein Computer-Programm-Produkt, ein computerlesbares Speichermedium sowie ein Datenträgersignal zur kamerabasierten Positionsbestimmung für in einem Umfeld des Offroad-Fahrzeugs befindliche Objekte.The present invention relates to the field of off-road vehicles, in particular off-road vehicles that drive autonomously or partially autonomously. Specifically, the present invention relates to a device, a method, a computer program product, a computer-readable storage medium and a data carrier signal for the camera-based position determination for objects located in the vicinity of the off-road vehicle.

TECHNISCHER HINTERGRUNDTECHNICAL BACKGROUND

Objekterkennung spielt bei der Positionsbestimmung von Objekten, die sich in einem Umfeld eines autonom oder teilautonom fahrendem Offroad-Fahrzeugs eine zentrale Rolle. Offroad-Fahrzeuge, insbesondere Industriefahrzeuge, Hafenfahrzeuge, Konstruktionsfahrzeuge, Landmaschinen, Roboter und/oder fahrerlose Transportsysteme (FTS, Engl.: Automated Guided Vehicle, AGV), sind aufgrund ihrer spezifischen Einsatzgebiete mit bestimmten Umfeldcharakteristiken konfrontiert. Beispielsweise wird das Verkehr auf einem Konstruktionsgelände nicht durch straßenübliche Verkehrsinfrastrukturen wie Ampeln und Vorfahrtszeichen geregelt. Aus diesem Grund ist es erforderlich, dass Konstruktionsfahrzeuge entweder mit Hilfe des Fahrers oder einer automatisierenden Fahrzeugsteuerung die sich im Umfeld befindlichen bzw. beweglichen Objekte, etwa Personen, andere Fahrzeuge und/oder Bebauungen, richtig erkennen, um Kollisionen zu vermeiden und einen störungsfreien Verkehrsfluss zu gewährleisten.Object recognition plays a central role in determining the position of objects that are in the environment of an autonomously or partially autonomously driving off-road vehicle. Off-road vehicles, in particular industrial vehicles, port vehicles, construction vehicles, agricultural machinery, robots and / or driverless transport systems (AGV), are confronted with certain environmental characteristics due to their specific areas of application. For example, traffic on a construction site is not regulated by road traffic infrastructures such as traffic lights and right-of-way signs. For this reason, it is necessary that construction vehicles, either with the help of the driver or an automated vehicle control system, correctly recognize the objects in the vicinity or moving objects, such as people, other vehicles and / or buildings, in order to avoid collisions and ensure a smooth flow of traffic guarantee.

Zwecks zuverlässigerer und schnellerer Objekterkennung sind in der Vergangenheit zahlreiche Lösungsansätze vorgeschlagen worden. Beispielsweise offenbart US 2016/0026880 A1 ein Fahrerassistenzsystem für ein Fahrzeug umfassend eine breitbandige Kamera zum Erzeugen eines Bildes mit vier Lichtkanälen, die jeweils einer Wellenlänge zugeordnet sind. WO 2011/160672 offenbart ein Verfahren zur Ermittlung von befahrbaren Wegflächen, um einen Fahrer eines Fahrzeugs zu assistieren, das Verfahren umfassend Bestimmen zumindest einer aktuellen Geste des Fahrzeugs mittels eines Lokalisierungssystems, Erlangen eines Landkartenmodells des Weges mittels zumindest eines am Fahrzeug angebrachten Bilderfassungsgerätes.Numerous approaches to a solution have been proposed in the past for the purpose of more reliable and faster object recognition. For example disclosed US 2016/0026880 A1 a driver assistance system for a vehicle comprising a broadband camera for generating an image with four light channels which are each assigned to a wavelength. WO 2011/160672 discloses a method for determining drivable path areas in order to assist a driver of a vehicle, the method comprising determining at least one current gesture of the vehicle by means of a localization system, obtaining a map model of the route by means of at least one image acquisition device attached to the vehicle.

Es besteht jedoch Bedarf an Verbesserung der Schnelligkeit und Genauigkeit der Objekterkennung. Die bekannten Lösungsansätze sind dahingehend mangelhaft, dass von den mittels Umfeldsensoren gewonnenen Daten nach dem Beseitigen der falschen Positiven zahlreiche Informationen ungenutzt weggefiltert werden. Die Verwertbarkeit der Sensordaten ist daher begrenzt. Auch der Zuversichtlichkeitsgrad, dass detektierte Sensorsignale einem bestimmten Objekt bzw. einer bestimmten Objektklasse zuzuordnen ist, ist bei den bekannten Lösungsansätzen aufgrund der Art und Weise der Datenverarbeitung und der der verwendeten Sensorik zugrunde liegenden physikalischen Gegebenheiten beschränkt.However, there is a need to improve the speed and accuracy of object recognition. The known approaches to a solution are inadequate in that, after the false positives have been eliminated, a great deal of information is filtered out of the data obtained by means of environmental sensors without being used. The usability of the sensor data is therefore limited. The degree of confidence that detected sensor signals can be assigned to a certain object or a certain object class is also limited in the known approaches due to the type and manner of data processing and the physical conditions underlying the sensor system used.

Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, die Positionsbestimmung für im Umfeld eines vollständig oder teilweise autonom fahrenden Fahrzeugs befindliche Objekte hinsichtlich der Schnelligkeit und Zuverlässigkeit zu verbessern.The present invention is therefore based on the object of improving the position determination for objects located in the vicinity of a completely or partially autonomously driving vehicle with regard to speed and reliability.

Die Aufgabe wird gelöst durch eine Vorrichtung, ein Verfahren, ein Computer-Programm-Produkt, ein computerlesbares Speichermedium sowie ein Datenträgersignal gemäß den unabhängigen Ansprüchen.The object is achieved by a device, a method, a computer program product, a computer-readable storage medium and a data carrier signal according to the independent claims.

Die erfindungsgemäße Vorrichtung dient zur kamerabasierten Positionsbestimmung für ein Objekt, welches sich in einem Umfeld eines Offroad-Fahrzeugs befindet. Bei der erfindungsgemäßen Vorrichtung kann es sich beispielsweise um eine elektronische Steuer- oder Regeleinheit (engl. ECU = Electronic Control Unit), ein elektronisches Steuer- oder Regelmodul (ECM = Electronic Control Module) oder eine Steuer-/Regeleinheit für autonomes Fahren (z.B. ein „Autopilot“) handeln. Die Vorrichtung kann sich am Offroad-Fahrzeug befinden, oder außerhalb bzw. teilweise außerhalb des Fahrzeugs. Beispielsweise kann die erfindungsgemäße Vorrichtung Teil einer zentralen Überwachungseinrichtung im Straßenverkehr, insbesondere im Stadtverkehr, im Autobahnverkehr, auf einem zumindest teilweise geschlossenen industriellen, gewerblichen Gelände und/oder auf einer landwirtschaftlichen Nutzfläche sein. Die Kommunikation zwischen der erfindungsgemäßen Vorrichtung und dem Offroad-Fahrzeug bzw. zwischen der zentralen Überwachungseinrichtung und dem Offroad-Fahrzeug kann drahtlos, etwa über Bluetooth, Infrarot, Nahfeld-Kommunikation (Engl.: NFC), Funk, Internet, Intranet, Cloud-Systeme, Blockchain-Systeme, 4G-Kommunikationsnetzwerke, 5G-Kommunikationsnetzwerke und/oder verdrahtete Systeme erfolgen.The device according to the invention is used for the camera-based position determination for an object which is located in the surroundings of an off-road vehicle. The device according to the invention can be, for example, an electronic control or regulating unit (ECU = Electronic Control Unit), an electronic control or regulating module (ECM = Electronic Control Module) or a control / regulating unit for autonomous driving (e.g. a "Autopilot") act. The device can be located on the off-road vehicle, or outside or partially outside the vehicle. For example, the device according to the invention can be part of a central monitoring device in road traffic, in particular in city traffic, in motorway traffic, on an at least partially closed industrial, commercial site and / or on an agricultural area. The communication between the device according to the invention and the off-road vehicle or between the central monitoring device and the off-road vehicle can be wireless, for example via Bluetooth, infrared, near-field communication (NFC), radio, internet, intranet, cloud systems , Blockchain systems, 4G communication networks, 5G communication networks and / or wired systems.

Die Vorrichtung umfasst einen Dateneingang zum Erhalten eines ersten Bildes und eines zweiten Bildes. Das erste Bild ist von einer ersten Kamera aus einer Farbkamera und einer Wärmekamera beim Erfassen des Umfelds des Offroad-Fahrzeugs erzeugt. Die Farbkamera ist beispielsweise eine RGB-Kamera, insbesondere eine Kamera mit einem RGB-basierten Charge-Coulpled Density (CCD)-Chip oder einem Complementary Metal Oxide Semiconductor (CMOS)-Chip. Die Wärmekamera ist beispielsweise eine Infrarotkamera. Das zweite Bild ist von einer zweiten Kamera aus der Farbkamera und der Wärmekamera beim Erfassen des Umfelds des Offroad-Fahrzeugs erzeugt.The device comprises a data input for receiving a first image and a second image. The first image is generated by a first camera from a color camera and a thermal camera when capturing the surroundings of the off-road vehicle. The color camera is, for example, an RGB camera, in particular a camera with an RGB-based charge-coulpled density (CCD) chip or a complementary metal oxide semiconductor (CMOS) chip. The thermal camera is, for example, an infrared camera. The second picture is of one Second camera generated from the color camera and the thermal camera when capturing the surroundings of the off-road vehicle.

Dies bedeutet, das erste Bild kann von der Farbkamera erzeugt sein, wobei das zweite Bild von der Wärmekamera erzeugt ist. Alternativ kann das erste Bild von der Wärmekamera erzeugt sein, wobei das zweite Bild von der Farbkamera erzeugt ist.This means that the first image can be generated by the color camera, the second image being generated by the thermal camera. Alternatively, the first image can be generated by the thermal camera, the second image being generated by the color camera.

Die Vorrichtung umfasst außerdem eine Auswerteeinheit zum Festlegen eines Bildbereichs im zweiten Bild. Dieser stellt einen Teilbereich des zweiten Bildes dar, der zumindest teilweise die Abbildung des Objektes im zweiten Bild umschließt. Ein derartiger Bildbereich ist in der englischen Fachliteratur als „bounding box“ bezeichnet. Der Bildbereich kann auf verschiedenen Weisen erhalten werden: beispielsweise kann dieser mittels einer Objekterkennung basierend auf den Sensordaten der Farb- oder Wärmekamera bestimmt werden. Die Objekterkennung beruht vorzugsweise auf einer semantischen Segmentierung oder einer modellbasierten Segmentierung. The device also includes an evaluation unit for defining an image area in the second image. This represents a sub-area of the second image which at least partially encloses the image of the object in the second image. Such an image area is referred to as a “bounding box” in the English specialist literature. The image area can be obtained in various ways: for example, it can be determined by means of object recognition based on the sensor data from the color or thermal camera. The object recognition is preferably based on semantic segmentation or model-based segmentation.

Alternativ kann der Bildbereich basierend auf einem anderen Bildbereich ermittelt werden, der einen Teilbereich des ersten Bildes darstellt, der zumindest teilweise die Abbildung des Objektes im ersten Bild umschließt. Zwecks Unterscheidung handelt es sich beim Bildbereich im ersten Bild um einen ersten Bildbereich, wobei es sich beim Bildbereich im zweiten Bild um einen zweiten Bildbereich. Der erste Bildbereich kann mittels einer Objekterkennung basierend auf den Sensordaten der Wärme- oder Farbkamera (bzw. von der jeweils anderen Kamera als die Kamera, von der das zweite Bild erzeugt ist) bestimmt werden. Auch hier kommen die semantische Segmentierung und/oder die modellbasierte Segmentierung in Betracht.Alternatively, the image area can be determined based on another image area which represents a sub-area of the first image that at least partially encloses the image of the object in the first image. For the purpose of differentiation, the image area in the first image is a first image area, the image area in the second image being a second image area. The first image area can be determined by means of object recognition based on the sensor data from the thermal or color camera (or from the respective camera other than the camera from which the second image is generated). Semantic segmentation and / or model-based segmentation also come into consideration here.

Beispielsweise wird der erste Bildbereich basierend auf einer Relativposition zwischen der Farbkamera und der Wärmekamera, oder zwischen dem Bildkoordinatensystem der Farbkamera und dem Bildkoordinatensystem der Wärmekamera, modifiziert. Wenn die beiden Bildkoordinatensysteme gleich sind (Relativposition gleich Null), weist die Abbildung des Objektes im ersten und zweiten Bild die gleichen Bildkoordinaten auf. In diesem Fall kann als zweiter Bildbereich der erste Bildbereich übernommen werden, sodass der zweite Bildbereich die gleichen Bildelemente (z.B. Pixel) im zweiten Bild wie der erste Bildbereich im ersten Bild belegt. Je nach Relativposition kann der zweite Bereich durch eine entsprechende Modifikation (z.B. Drehung und/oder Verschiebung) des ersten Bildbereichs erhalten werden. Der so erhaltene modifizierte erste Bildbereich kann zusätzlich vergrößert werden. Der basierend auf dem ersten Bildbereich erzeugte zweite Bildbereich stellt vorteilhafterweise sicher, dass Bildpunkte im ersten Bildbereich auch im zweiten Bildbereich ebenfalls enthalten sind.For example, the first image area is modified based on a relative position between the color camera and the thermal camera, or between the image coordinate system of the color camera and the image coordinate system of the thermal camera. If the two image coordinate systems are the same (relative position equal to zero), the image of the object in the first and second image has the same image coordinates. In this case, the first image area can be used as the second image area, so that the second image area occupies the same image elements (e.g. pixels) in the second image as the first image area in the first image. Depending on the relative position, the second area can be obtained by a corresponding modification (e.g. rotation and / or displacement) of the first image area. The modified first image area obtained in this way can additionally be enlarged. The second image area generated based on the first image area advantageously ensures that image points in the first image area are also contained in the second image area.

Die Auswerteeinheit ist ferner dazu ausgebildet, einen ersten Bildpunkt des Objektes im ersten Bild zu definieren. Hierzu kann ein beliebiger Punkt der Abbildung des Objektes im ersten Bild selektiert werden. Die Selektion erfolgt automatisch oder manuell (z.B. per Benutzereingabe über eine Eingabeschnittstelle). Zum auf diese Weise bestimmten ersten Bildpunkt wird eine epipolare Bildlinie im zweiten Bild durch die Auswerteeinheit ermittelt.The evaluation unit is also designed to define a first image point of the object in the first image. Any point on the image of the object in the first image can be selected for this. The selection takes place automatically or manually (e.g. by user input via an input interface). For the first image point determined in this way, an epipolar image line is determined in the second image by the evaluation unit.

Die epipolare Linie wird vorzugsweise folgendermaßen bestimmt: zunächst wird eine erste gedankliche Verbindungslinie zwischen dem ersten Bildpunkt und einem ersten Brennpunkt der ersten Kamera bestimmt. Danach werden mehrere Punkte auf der ersten gedanklichen Verbindungslinie ausgewählt. Des Weiteren werden mehrere zweite gedankliche Verbindungslinien zwischen den mehreren Punkten auf der ersten gedanklichen Verbindungslinie und einem zweiten Brennpunkt der zweiten Kamera bestimmt. Diese mehreren zweiten gedanklichen Verbindungslinien überschneiden die Bildfläche, in der das zweite Bild liegt, in mehreren Überschneidungspunkten. Diese Überschneidungspunkte bilden schließlich die epipolare Linie. Näherungsweise kann zur Bestimmung der epipolaren Linie eine Gerade zum Anfitten der mehreren Überschneidungspunkte ermittelt werden.The epipolar line is preferably determined as follows: a first conceptual connecting line between the first image point and a first focal point of the first camera is determined. Then several points are selected on the first line of thought. Furthermore, several second mental connecting lines are determined between the several points on the first mental connecting line and a second focal point of the second camera. These several second mental connecting lines intersect the image area in which the second image lies in several intersection points. These intersection points ultimately form the epipolar line. To determine the epipolar line, a straight line for fitting the multiple intersection points can be determined approximately.

Die Auswerteeinheit ist außerdem dazu ausgebildet, einen Überlappungsabschnitt zwischen der epipolaren Bildlinie und dem (zweiten) Bildbereich zu ermitteln. Basierend auf dem Überlappungsabschnitt kann eine Tiefeninformation des ersten Bildpunktes bestimmt werden. Die Tiefeninformation bezeichnet einen Raumkoordinaten außerhalb der Bildfläche der ersten Kamera und ist ein Maßstab für die Entfernung des Objektes relativ zur Kamera.The evaluation unit is also designed to determine an overlap section between the epipolar image line and the (second) image area. Depth information of the first image point can be determined based on the overlap section. The depth information designates a spatial coordinate outside the image area of the first camera and is a measure of the distance of the object relative to the camera.

Erfindungsgemäß kann somit die Menge der Bildpunkte im zweiten Bild, die zur Bestimmung der Tiefeninformation des Bildpunktes und somit zur Positionsbestimmung des Objektes stark reduziert werden. Dies führt vorteilhafterweise zu einer Verringerung des zur Positionsbestimmung erforderlichen Rechenaufwandes. Die Positionsbestimmung für das autonom fahrende Offroad-Fahrzeug wird daher schneller und behält ihre Genauigkeit und Zuverlässigkeit gleichzeitig bei.According to the invention, the number of image points in the second image which is used to determine the depth information of the image point and thus to determine the position of the object can thus be greatly reduced. This advantageously leads to a reduction in the computational effort required to determine the position. The position determination for the autonomously driving off-road vehicle is therefore faster and maintains its accuracy and reliability at the same time.

Vorteilhafte Ausgestaltungen und Weiterbildungen sind in den Unteransprüchen angegeben.Advantageous refinements and developments are specified in the subclaims.

Gemäß einer Ausführungsform umfasst das erfindungsgemäße Verfahren ferner Bestimmen eines zweiten Bildpunktes im Überlappungsabschnitt, wobei der zweite Bildpunkt dem ersten Bildpunkt entspricht.According to one embodiment, the method according to the invention further comprises determining a second pixel in the overlap section, wherein the second pixel corresponds to the first pixel.

Der zweite Bildpunkt dient vorzugsweise dazu, der dem ersten Bildpunkt entsprechenden Objektpunkt des Objektes mittels einer Triangulation basierend auf dem ersten Bildpunkt und dem zweiten Bildpunkt sowie der Relativposition zwischen dem ersten und zweiten Bildpunkt zu ermitteln. Dies ermöglicht eine besonders genaue Positionsbestimmung.The second image point is preferably used to determine the object point of the object corresponding to the first image point by means of a triangulation based on the first image point and the second image point and the relative position between the first and second image point. This enables a particularly precise position determination.

Gemäß einer weiteren Ausführungsform wird der zweite Bildpunkt basierend auf einem Korrelationswert zwischen dem ersten Bildpunkt einerseits und mehreren Bildpunkten des Überlappungsabschnittes andererseits bestimmt.According to a further embodiment, the second pixel is determined based on a correlation value between the first pixel on the one hand and a plurality of pixels of the overlap section on the other hand.

Der zweite Bildpunkt wird aus mehreren im Überlappungsabschnitt liegenden Bildpunkten im zweiten Bild bestimmt: zunächst wird der Korrelationswert für jeden der mehreren im Überlappungsabschnitt liegenden Bildpunkte ermittelt. Anschließend wird der Bildpunkt mit dem höchsten Korrelationswert als zweiter Bildpunkt selektiert. Dies ermöglicht eine besonders genaue Bestimmung des zweiten Bildpunktes, sodass die Positionsbestimmung besonders zuverlässig ist.The second image point is determined from a plurality of image points located in the overlapping section in the second image: first of all, the correlation value is determined for each of the several image points located in the overlapping section. The pixel with the highest correlation value is then selected as the second pixel. This enables a particularly precise determination of the second image point, so that the position determination is particularly reliable.

Gemäß einer weiteren Ausführungsform betrifft der Korrelationswert eine Korrelation hinsichtlich eines Gradienten der mehreren Bildpunkte des Überlappungsabschnittes.According to a further embodiment, the correlation value relates to a correlation with regard to a gradient of the plurality of pixels of the overlap section.

Beispielsweise kann für den ersten Bildpunkt ein erster Gradientenwert und für jeden der mehreren im Überlappungsabschnitt liegenden Bildpunkte jeweils ein zweiter Gradientenwert ermittelt werden. Aus einem Vergleich zwischen dem ersten Gradientenwert und dem jeweiligen zweiten Gradientenwert kann derjenige Bildpunkt des Überlappungsabschnittes, dessen Gradiententwert die kleinste Differenz zum Gradientenwert des ersten Bildpunktes aufweist, bestimmt werden. Unter „Gradient“ kann die Steigung einer Bildkontur (z.B. Grenzverlauf zwischen den Bildpunkten des Objektes und den Bildpunkten des Hintergrundes) im ersten Bildpunkt bzw. im jeweiligen der im Überlappungsabschnitt liegenden Bildpunkte verstanden werden.For example, a first gradient value can be determined for the first image point and a second gradient value can be determined for each of the multiple image points located in the overlap section. From a comparison between the first gradient value and the respective second gradient value, that pixel of the overlapping section whose gradient value has the smallest difference to the gradient value of the first pixel can be determined. “Gradient” can be understood to mean the slope of an image contour (e.g. boundary between the image points of the object and the image points of the background) in the first image point or in the respective image points located in the overlap section.

Gemäß einer weiteren Ausführungsform umfasst der erste Bildpunkt einen Randpunkt des Objektes im ersten Bildbereich.According to a further embodiment, the first image point comprises an edge point of the object in the first image area.

Der Randpunkt liegt auf einer Kontur des Objektes, z.B. im Grenzverlauf zwischen den Bildpunkten des Objektes und den Bildpunkten des Hintergrundes. Auf diese Weise können besonders markante Bildpunkte für die Wahl des ersten Bildpunktes zur Verfügung stehen, sodass der erste Bildpunkt auf einfache Weise bestimmbar ist.The edge point lies on a contour of the object, e.g. in the boundary between the image points of the object and the image points of the background. In this way, particularly distinctive image points can be available for the selection of the first image point, so that the first image point can be determined in a simple manner.

Das erfindungsgemäße Computerprogrammprodukt ist ausgeführt, in einen Speicher eines Computers geladen zu werden und umfasst Softwarecodeabschnitte, mit denen die Verfahrensschritte des erfindungsgemäßen Verfahrens ausgeführt werden, wenn das Computerprogrammprodukt auf dem Computer läuft.The computer program product according to the invention is designed to be loaded into a memory of a computer and comprises software code sections with which the method steps of the method according to the invention are carried out when the computer program product is running on the computer.

Ein Programm gehört zur Software eines Daten verarbeitenden Systems, zum Beispiel einer Auswerteeinrichtung oder einem Computer. Software ist ein Sammelbegriff für Programme und zugehörigen Daten. Das Komplement zu Software ist Hardware. Hardware bezeichnet die mechanische und elektronische Ausrichtung eines Daten verarbeitenden Systems. Ein Computer ist eine Auswerteeinrichtung.A program belongs to the software of a data processing system, for example an evaluation device or a computer. Software is a collective term for programs and associated data. The complement to software is hardware. Hardware describes the mechanical and electronic alignment of a data processing system. A computer is an evaluation device.

Computerprogrammprodukte umfassen in der Regel eine Folge von Befehlen, durch die die Hardware bei geladenem Programm veranlasst wird, ein bestimmtes Verfahren durchzuführen, das zu einem bestimmten Ergebnis führt. Wenn das betreffende Programm auf einem Computer zum Einsatz kommt, ruft das Computerprogrammprodukt den oben beschriebenen erfinderischen technischen Effekt hervor.Computer program products generally comprise a sequence of instructions which, when the program is loaded, cause the hardware to carry out a specific method that leads to a specific result. When the program in question is used on a computer, the computer program product produces the inventive technical effect described above.

Das erfindungsgemäße Computerprogrammprodukt ist Plattform unabhängig. Das heißt, es kann auf jeder beliebigen Rechenplattform ausgeführt werden. Bevorzugt wird das Computerprogrammprodukt auf einer erfindungsgemäßen Auswertevorrichtung zum Erfassen des Umfelds des Fahrzeugs ausgeführt.The computer program product according to the invention is platform independent. That means it can run on any computing platform. The computer program product is preferably executed on an evaluation device according to the invention for detecting the surroundings of the vehicle.

Die Softwarecodeabschnitte sind in einer beliebigen Programmiersprache geschrieben, zum Beispiel in Python, Java, JavaScript, C, C++, C#, Matlab, LabView, Objective C.The software code sections are written in any programming language, for example in Python, Java, JavaScript, C, C ++, C #, Matlab, LabView, Objective C.

Das computerlesbare Speichermedium ist beispielsweise ein elektronisches, magnetisches, optisches oder magneto-optisches Speichermedium.The computer-readable storage medium is, for example, an electronic, magnetic, optical or magneto-optical storage medium.

Das Datenträgersignal ist ein Signal, welches das Computer-Programm-Produkt von einem Speichermedium, auf dem das Computer-Programm-Produkt gespeichert ist, auf eine andere Entität, beispielsweise ein anderes Speichermedium, einen Server, ein Cloud-System, ein drahtloses Kommunikationssystem der 4G/5G oder eine Daten verarbeitende Einrichtung, überträgt.The data carrier signal is a signal which the computer program product from a storage medium on which the computer program product is stored to another entity, for example another storage medium, a server, a cloud system, a wireless communication system 4G / 5G or a data processing facility, transmits.

Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Es zeigen:

  • 1 eine schematische Darstellung einer Vorrichtung zur Positionsbestimmung gemäß einer Ausführungsform; und
  • 2 eine schematische Darstellung des Prinzips der Positionsbestimmung mittels der Vorrichtung aus 1.
Embodiments will now be described by way of example and with reference to the accompanying drawings. Show it:
  • 1 a schematic representation of a device for determining position according to an embodiment; and
  • 2 a schematic representation of the principle of position determination by means of the device 1 .

In den Figuren beziehen sich gleiche Bezugszeichen auf gleiche oder funktionsähnliche Bezugsteile. In den einzelnen Figuren sind die jeweils relevanten Bezugsteile gekennzeichnet.In the figures, the same reference symbols relate to the same or functionally similar reference parts. The relevant reference parts are identified in the individual figures.

1 zeigt eine schematische Darstellung einer Vorrichtung 10, die zur kamerabasierten Positionsbestimmung für ein Objekt 62, welches sich in einem Umfeld 60 eines Offroad-Fahrzeugs befindet. Das Prinzip der Positionsbestimmung mittels der Vorrichtung 10 wird anhand von 2 erläutert. 1 shows a schematic representation of a device 10 for the camera-based position determination for an object 62 which is in an environment 60 an off-road vehicle. The principle of position determination by means of the device 10 is based on 2 explained.

Die Vorrichtung 10 umfasst einen Dateneingang 12 zum Erhalten eines ersten Bildes 24 und eines zweiten Bildes 34. Das erste Bild 24 ist von einer ersten Kamera, hier beispielsweise einer Farbkamera 20, beim Erfassen des Umfelds 60 des Offroad-Fahrzeugs erzeugt. Die Farbkamera 20 ist beispielsweise eine RGB-Kamera, insbesondere eine Kamera mit einem RGB-basierten Charge-Coulpled Density (CCD)-Chip oder einem Complementary Metal Oxide Semiconductor (CMOS)-Chip. Das zweite Bild 34 ist von einer zweiten Kamera, hier beispielsweise einer Wärmekamera 30, beim Erfassen des Umfelds 60 des Offroad-Fahrzeugs erzeugt. Die Wärmekamera 30 ist beispielsweise eine Infrarotkamera.The device 10 includes a data input 12th to get a first image 24 and a second image 34 . The first picture 24 is from a first camera, here for example a color camera 20th when capturing the environment 60 of the off-road vehicle. The color camera 20th is for example an RGB camera, in particular a camera with an RGB-based Charge-Coulpled Density (CCD) chip or a Complementary Metal Oxide Semiconductor (CMOS) chip. The second picture 34 is from a second camera, here for example a thermal camera 30th when capturing the environment 60 of the off-road vehicle. The thermal camera 30th is for example an infrared camera.

Alternativ kann das erste Bild 24 von der Wärmekamera 30 erzeugt sein, wobei das zweite Bild 34 von der Farbkamera 20 erzeugt sein kann.Alternatively, the first picture 24 from the thermal camera 30th be generated, the second image 34 from the color camera 20th can be generated.

Die Vorrichtung umfasst außerdem eine Auswerteeinheit 16 zum Festlegen eines zweiten Bildbereichs 342 im zweiten Bild 34. Dieser stellt einen Teilbereich des zweiten Bildes 34 dar, der zumindest teilweise die Abbildung des Objektes 62 im zweiten Bild umschließt. Ein derartiger Bildbereich 342 ist in der englischen Fachliteratur als „bounding box“ bezeichnet. Der zweite Bildbereich 342 kann auf verschiedenen Weisen erhalten werden: beispielsweise kann dieser mittels einer Objekterkennung basierend auf den Sensordaten der Wärmekamera 30 bestimmt werden. Die Objekterkennung beruht vorzugsweise auf einer semantischen Segmentierung oder einer modellbasierten Segmentierung.The device also includes an evaluation unit 16 to define a second image area 342 In the second picture 34 . This represents a part of the second image 34 which at least partially depicts the object 62 in the second picture encloses. Such an image area 342 is referred to as the “bounding box” in the English specialist literature. The second image area 342 can be obtained in different ways: for example, it can be obtained by means of object recognition based on the sensor data of the thermal camera 30th to be determined. The object recognition is preferably based on semantic segmentation or model-based segmentation.

Alternativ kann, wie in 2 schematisch gezeigt, der zweite Bildbereich 342 basierend auf einem ersten Bildbereich 242 ermittelt werden, der einen Teilbereich des ersten Bildes 24 darstellt, der zumindest teilweise die Abbildung des Objektes 62 im ersten Bild 24 umschließt. Der erste Bildbereich 242 kann mittels einer Objekterkennung basierend auf den Sensordaten der Farbkamera 20 bestimmt werden. Auch hier kommen die semantische Segmentierung und/oder die modellbasierte Segmentierung in Betracht.Alternatively, as in 2 shown schematically, the second image area 342 based on a first image area 242 be determined, which is a partial area of the first image 24 represents that at least partially depicts the object 62 in the first picture 24 encloses. The first image area 242 can by means of object recognition based on the sensor data of the color camera 20th to be determined. Semantic segmentation and / or model-based segmentation also come into consideration here.

Die Auswerteeinheit 16 ist ferner dazu ausgebildet, einen ersten Bildpunkt 244 des Objektes 62 im ersten Bild 24 zu definieren. Hierzu kann ein beliebiger Punkt der Abbildung des Objektes 62 im ersten Bild 24 selektiert werden. Die Selektion erfolgt automatisch oder manuell (z.B. per Benutzereingabe über eine Eingabeschnittstelle).The evaluation unit 16 is also designed to have a first pixel 244 of the property 62 in the first picture 24 define. Any point on the image of the object can be used for this 62 in the first picture 24 be selected. The selection is made automatically or manually (e.g. by user input via an input interface).

Zum auf diese Weise bestimmten ersten Bildpunkt 244 wird eine epipolare Bildlinie 344 im zweiten Bild 34 durch die Auswerteeinheit 16 ermittelt. Die epipolare Linie 344 wird vorzugsweise folgendermaßen bestimmt: zunächst wird eine erste gedankliche Verbindungslinie zwischen dem ersten Bildpunkt 244 und einem ersten Brennpunkt der ersten Kamera bzw. der Farbkamera 20 bestimmt. Danach werden mehrere Punkte auf der ersten gedanklichen Verbindungslinie ausgewählt. Des Weiteren werden mehrere zweite gedankliche Verbindungslinien zwischen den mehreren Punkten auf der ersten gedanklichen Verbindungslinie und einem zweiten Brennpunkt der zweiten Kamera (bzw. der Wärmekamera 30) bestimmt. Diese mehreren zweiten gedanklichen Verbindungslinien überschneiden die Bildfläche, in der das zweite Bild 34 liegt, in mehreren Überschneidungspunkten. Diese Überschneidungspunkte liegen im Idealfall auf einer Gerade, die die epipolare Linie 344 definiert. Daher kann näherungsweise zur Bestimmung der epipolaren Linie 344 eine Gerade zum Anfitten der mehreren Überschneidungspunkte ermittelt werden.To the first pixel determined in this way 244 becomes an epipolar image line 344 In the second picture 34 through the evaluation unit 16 determined. The epipolar line 344 is preferably determined as follows: first, a first conceptual connecting line is established between the first image point 244 and a first focal point of the first camera or the color camera 20th certainly. Then several points are selected on the first line of thought. Furthermore, several second mental connecting lines between the several points on the first mental connecting line and a second focal point of the second camera (or the thermal camera 30th ) certainly. These several second mental connecting lines intersect the picture area in which the second picture 34 lies in several points of intersection. Ideally, these points of intersection lie on a straight line that forms the epipolar line 344 Are defined. Therefore, it can be approximated to determine the epipolar line 344 a straight line for fitting the multiple points of intersection can be determined.

Die Auswerteeinheit 16 ist außerdem dazu ausgebildet, einen Überlappungsabschnitt 346 zwischen der epipolaren Bildlinie 344 und dem (zweiten) Bildbereich 342 zu ermitteln. Basierend auf dem Überlappungsabschnitt 346 kann eine Tiefeninformation des ersten Bildpunktes bestimmt werden. Die Tiefeninformation bezeichnet einen Raumkoordinaten außerhalb der Bildfläche der ersten Kamera (bzw. der Farbkamera 20) und ist ein Maßstab für die Entfernung des Objektes 62 relativ zur Farbkamera 20.The evaluation unit 16 is also designed to have an overlap portion 346 between the epipolar image line 344 and the (second) image area 342 to determine. Based on the overlap section 346 depth information of the first pixel can be determined. The depth information designates a spatial coordinate outside the image area of the first camera (or the color camera 20th ) and is a measure of the distance to the object 62 relative to the color camera 20th .

Die Tiefeninformation kann vorzugsweise ermittelt werden, indem die Bildpunkte, die im Überlappungsabschnitt 346 im zweien Bild 34 enthalten sind, mit dem ersten Bildpunkt 242 im ersten Bild 24 hinsichtlich einer Bildeigenschaft (z.B. Gradient einer Kontur) verglichen werden. Derjenige Bildpunkt des Überlappungsabschnittes 346, der zum ersten Bildpunkt 242 hinsichtlich dieser Bildeigenschaft am nächsten liegt, wird als zweiter Bildpunkt selektiert. Aus dem ersten Bildpunkt 242, dem zweiten Bildpunkt sowie der Relativposition der beiden Bildkoordinatensysteme bzw. der beiden Kameras 20, 30 kann mittels Triangulation die Tiefeninformation des ersten Bildpunktes 242 bestimmt werden.The depth information can preferably be determined by the image points that are in the overlap section 346 in the two picture 34 are included with the first pixel 242 in the first picture 24 can be compared with regard to an image property (e.g. gradient of a contour). That pixel of the overlap section 346 that goes to the first pixel 242 is closest with regard to this image property, is selected as the second pixel. From the first pixel 242 , the second image point and the relative position of the two image coordinate systems or the two cameras 20th , 30th can use triangulation to obtain the depth information of the first pixel 242 to be determined.

BezugszeichenlisteList of reference symbols

1010
Vorrichtungcontraption
1212
erster Dateneingangfirst data entry
1414th
zweiter Dateneingangsecond data input
1616
AuswerteeinheitEvaluation unit
1818th
SignalausgangSignal output
2020th
FarbkameraColor camera
2424
erstes Bildfirst picture
242242
erster Bildbereichfirst image area
244244
erster Bildpunktfirst pixel
3030th
WärmekameraThermal camera
3434
zweites Bildsecond picture
342342
zweiter Bildbereichsecond image area
344344
epipolare Linieepipolar line
346346
ÜberlappungsabschnittOverlap section
6060
Umfeldenvironment
6262
Objekt (Mensch)Object (human)

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • US 2016/0026880 A1 [0003]US 2016/0026880 A1 [0003]
  • WO 2011/160672 [0003]WO 2011/160672 [0003]

Claims (11)

Verfahren zur kamerabasierten Positionsbestimmung für ein Objekt (62) in einem Umfeld (60) eines Offroad-Fahrzeugs, umfassend: - Erhalten eines ersten Bildes (24) und eines zweiten Bildes (34), wobei das erste Bild (24) von einer ersten Kamera aus einer Farbkamera (20) und einer Wärmekamera (30) beim Erfassen des Umfelds (60) des Offroad-Fahrzeugs erzeugt ist, wobei das zweite Bild (34) von einer zweiten Kamera aus der Farbkamera (20) und der Wärmekamera (30) beim Erfassen des Umfelds (60) des Offroad-Fahrzeugs erzeugt ist; - Festlegen eines Bildbereichs (342) im zweiten Bild (34), der zumindest teilweise das Objekt (62) umfasst; - Ermitteln einer einem ersten Bildpunkt (244) des Objektes (62) im ersten Bild (24) entsprechenden epipolaren Bildlinie (344) im zweiten Bild (34); - Ermitteln eines Überlappungsabschnittes (346) zwischen der epipolaren Bildlinie (344) und dem Bildbereich (342); - Bestimmen einer Tiefeninformation des ersten Bildpunktes (244) basierend auf dem Überlappungsabschnitt (346).A method for the camera-based position determination for an object (62) in an environment (60) of an off-road vehicle, comprising: - Obtaining a first image (24) and a second image (34), the first image (24) from a first camera comprising a color camera (20) and a thermal camera (30) when capturing the surroundings (60) of the off-road vehicle is generated, the second image (34) being generated by a second camera from the color camera (20) and the thermal camera (30) when capturing the surroundings (60) of the off-road vehicle; - Defining an image area (342) in the second image (34) which at least partially comprises the object (62); - Determining an epipolar image line (344) corresponding to a first image point (244) of the object (62) in the first image (24) in the second image (34); - determining an overlap section (346) between the epipolar image line (344) and the image area (342); - Determination of depth information of the first image point (244) based on the overlap section (346). Verfahren nach Anspruch 1, weiter umfassend Bestimmen eines zweiten Bildpunktes im Überlappungsabschnitt (346), wobei der zweite Bildpunkt dem ersten Bildpunkt (244) entspricht.Procedure according to Claim 1 , further comprising determining a second pixel in the overlap portion (346), the second pixel corresponding to the first pixel (244). Verfahren nach Anspruch 2, wobei der zweite Bildpunkt basierend auf einem Korrelationswert zwischen dem ersten Bildpunkt (244) einerseits und mehreren Bildpunkten des Überlappungsabschnittes (346) andererseits bestimmt wird.Procedure according to Claim 2 wherein the second pixel is determined based on a correlation value between the first pixel (244) on the one hand and a plurality of pixels of the overlapping section (346) on the other hand. Verfahren nach Anspruch 3, wobei der Korrelationswert eine Korrelation hinsichtlich eines Gradienten der mehreren Bildpunkte des Überlappungsabschnittes (346) betrifft.Procedure according to Claim 3 wherein the correlation value relates to a correlation in terms of a gradient of the plurality of pixels of the overlap portion (346). Verfahren nach einem der vorangehenden Ansprüche, wobei der erste Bildpunkt (244) einen Randpunkt des Objektes (62) im ersten Bild (24) umfasst.Method according to one of the preceding claims, wherein the first image point (244) comprises an edge point of the object (62) in the first image (24). Verfahren nach einem der Ansprüche 2 bis 5, wobei die Tiefeninformation mittels einer Triangulation unter Verwendung des ersten und zweiten Bildpunktes (244) bestimmt wird.Method according to one of the Claims 2 to 5 , wherein the depth information is determined by means of triangulation using the first and second image points (244). Vorrichtung (10) zur kamerabasierten Positionsbestimmung für ein Objekt (62) in einem Umfeld (60) eines Offroad-Fahrzeugs, umfassend: - einen Dateneingang (12, 14) zum Erhalten eines ersten Bildes (24) und eines zweiten Bildes (34), wobei das erste Bild (24) von einer ersten Kamera aus einer Farbkamera (20) und einer Wärmekamera (30) beim Erfassen des Umfelds (60) des Offroad-Fahrzeugs erzeugt ist, wobei das zweite Bild (34) von einer zweiten Kamera aus der Farbkamera (20) und der Wärmekamera (30) beim Erfassen des Umfelds (60) des Offroad-Fahrzeugs erzeugt ist; - eine Auswerteeinheit (16) zum Festlegen eines Bildbereichs (342) im zweiten Bild (34), der zumindest teilweise das Objekt (62) umfasst; wobei die Auswerteeinheit (16) dazu ausgebildet ist, eine einem ersten Bildpunkt (244) des Objektes (62) im ersten Bild (24) entsprechende epipolare Bildlinie (344) im zweiten Bild (34) zu ermitteln; - wobei die Auswerteeinheit (16) dazu ausgebildet ist, einen Überlappungsabschnitt (346) zwischen der epipolaren Bildlinie (344) und dem Bildbereich (342) zu ermitteln; - wobei die Auswerteeinheit (16) dazu ausgebildet ist, eine Tiefeninformation des ersten Bildpunktes (244) basierend auf dem Überlappungsabschnitt (346) zu bestimmen.Device (10) for camera-based position determination for an object (62) in an environment (60) of an off-road vehicle, comprising: - A data input (12, 14) for receiving a first image (24) and a second image (34), the first image (24) from a first camera comprising a color camera (20) and a thermal camera (30) when capturing the Environment (60) of the off-road vehicle is generated, the second image (34) being generated by a second camera from the color camera (20) and the thermal camera (30) when capturing the environment (60) of the off-road vehicle; - An evaluation unit (16) for defining an image area (342) in the second image (34) which at least partially comprises the object (62); wherein the evaluation unit (16) is designed to determine an epipolar image line (344) corresponding to a first image point (244) of the object (62) in the first image (24) in the second image (34); - The evaluation unit (16) being designed to determine an overlap section (346) between the epipolar image line (344) and the image area (342); - The evaluation unit (16) being designed to determine depth information of the first image point (244) based on the overlapping section (346). Verwendung der Vorrichtung (10) nach Anspruch 7 in einem Offroad-Fahrzeug.Use of the device (10) after Claim 7 in an off-road vehicle. Computer-Programm-Produkt, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach Anspruch 1 auszuführen.Computer program product, comprising instructions which, when the program is executed by a computer, cause the computer to perform the method according to Claim 1 execute. Computerlesbares Speichermedium, auf dem das Computer-Programm-Produkt nach Anspruch 9 gespeichert ist.Computer-readable storage medium on which the computer program product is based Claim 9 is stored. Datenträgersignal, das das Computer-Programm-Produkt nach Anspruch 9 überträgt.Data carrier signal that the computer program product according to Claim 9 transmits.
DE102019206231.8A 2019-04-30 2019-04-30 Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line Withdrawn DE102019206231A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019206231.8A DE102019206231A1 (en) 2019-04-30 2019-04-30 Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019206231.8A DE102019206231A1 (en) 2019-04-30 2019-04-30 Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line

Publications (1)

Publication Number Publication Date
DE102019206231A1 true DE102019206231A1 (en) 2020-11-05

Family

ID=72839124

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019206231.8A Withdrawn DE102019206231A1 (en) 2019-04-30 2019-04-30 Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line

Country Status (1)

Country Link
DE (1) DE102019206231A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007013664A1 (en) * 2006-03-22 2007-09-27 Daimlerchrysler Ag Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient
DE102009034026A1 (en) * 2009-07-21 2011-01-27 Bayerische Motoren Werke Aktiengesellschaft Method for recognizing object in environment of sensor system of vehicle, involves realizing object recognition based on determined candidates and part of environment detected by complementary metal oxide semiconductor-camera
WO2011160672A1 (en) * 2010-06-21 2011-12-29 Centre De Visió Per Computador Method for obtaining drivable road area
DE102014105297A1 (en) * 2014-04-14 2015-10-15 Connaught Electronics Ltd. Method for detecting an object in a surrounding area of a motor vehicle by means of a camera system of the motor vehicle, camera system and motor vehicle
US20160026880A1 (en) * 2014-07-28 2016-01-28 Hyundai Mobis Co., Ltd. Driving assist system for vehicle and method thereof
DE112015001741T5 (en) * 2014-04-08 2016-12-29 Tk Holdings Inc. System and method for night vision object detection and driver assistance
DE102017117212A1 (en) * 2016-08-02 2018-02-08 Samsung Electronics Co., Ltd. System and method for stereotriangulation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007013664A1 (en) * 2006-03-22 2007-09-27 Daimlerchrysler Ag Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient
DE102009034026A1 (en) * 2009-07-21 2011-01-27 Bayerische Motoren Werke Aktiengesellschaft Method for recognizing object in environment of sensor system of vehicle, involves realizing object recognition based on determined candidates and part of environment detected by complementary metal oxide semiconductor-camera
WO2011160672A1 (en) * 2010-06-21 2011-12-29 Centre De Visió Per Computador Method for obtaining drivable road area
DE112015001741T5 (en) * 2014-04-08 2016-12-29 Tk Holdings Inc. System and method for night vision object detection and driver assistance
DE102014105297A1 (en) * 2014-04-14 2015-10-15 Connaught Electronics Ltd. Method for detecting an object in a surrounding area of a motor vehicle by means of a camera system of the motor vehicle, camera system and motor vehicle
US20160026880A1 (en) * 2014-07-28 2016-01-28 Hyundai Mobis Co., Ltd. Driving assist system for vehicle and method thereof
DE102017117212A1 (en) * 2016-08-02 2018-02-08 Samsung Electronics Co., Ltd. System and method for stereotriangulation

Similar Documents

Publication Publication Date Title
EP3584663B1 (en) Method for automatic transverse guidance of a follow vehicle in a vehicle platoon
DE102017129075A1 (en) PARKING NAVIGATION SYSTEM AND METHOD
EP3824247A1 (en) Method and system for determining a position of a vehicle
DE102020113848A1 (en) ECCENTRICITY FUSION
EP2629243A1 (en) Method for detecting and tracking lane markings
DE102019106375A1 (en) Vehicle control device
DE102015208599A1 (en) Object detection device
DE102019209736A1 (en) Procedure for evaluating possible trajectories
DE112016000423T5 (en) SECTION LINE DETECTION DEVICE
DE102020200169B3 (en) Method for merging several data sets for the generation of a current lane model of a roadway and device for data processing
WO2020048669A1 (en) Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle
DE102018121008A1 (en) CROSS TRAFFIC RECORDING USING CAMERAS
DE102018123393A1 (en) Detection of parking areas
DE112018004003T5 (en) CONTROL AND METHOD FOR AUTOMATIC DRIVING
DE102020112825A1 (en) Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle
DE102020124331A1 (en) VEHICLE TRACK MAPPING
DE112020002753T5 (en) VEHICLE CONTROL METHOD, VEHICLE CONTROL DEVICE AND VEHICLE CONTROL SYSTEM INCLUDING THEM
DE102019208507A1 (en) Method for determining the degree of overlap between an object and a lane
DE102018109680A1 (en) Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product
DE102019206231A1 (en) Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line
DE112022002046T5 (en) DRIVING DEVICE, VEHICLE AND METHOD FOR AUTOMATED DRIVING AND/OR ASSISTED DRIVING
DE102011111856B4 (en) Method and device for detecting at least one lane in a vehicle environment
DE102023002044B3 (en) Method for a model-based fusion of different sensor modalities
DE102013217061A1 (en) Accurate positioning of a vehicle
DE102021206475A1 (en) Obstacle detection in the track area based on depth data

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee