DE102019206231A1 - Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line - Google Patents
Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line Download PDFInfo
- Publication number
- DE102019206231A1 DE102019206231A1 DE102019206231.8A DE102019206231A DE102019206231A1 DE 102019206231 A1 DE102019206231 A1 DE 102019206231A1 DE 102019206231 A DE102019206231 A DE 102019206231A DE 102019206231 A1 DE102019206231 A1 DE 102019206231A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- camera
- road vehicle
- pixel
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 claims abstract description 16
- 238000011156 evaluation Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 13
- 230000011218 segmentation Effects 0.000 description 8
- 230000003340 mental effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000001105 regulatory effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000012806 monitoring device Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Abstract
Verfahren zur kamerabasierten Positionsbestimmung für ein Objekt (62) in einem Umfeld (60) eines Offroad-Fahrzeugs, umfassend Erhalten eines ersten Bildes (24) und eines zweiten Bildes (34), wobei das erste Bild (24) von einer ersten Kamera aus einer Farbkamera (20) und einer Wärmekamera (30) beim Erfassen des Umfelds (60) des Offroad-Fahrzeugs erzeugt ist, wobei das zweite Bild (34) von einer zweiten Kamera aus der Farbkamera (20) und der Wärmekamera (30) beim Erfassen des Umfelds (60) des Offroad-Fahrzeugs erzeugt ist; Festlegen eines Bildbereichs (342) im zweiten Bild (34), der zumindest teilweise das Objekt (62) umfasst; Ermitteln einer einem ersten Bildpunkt (244) des Objektes (62) im ersten Bild (24) entsprechenden epipolaren Bildlinie (344) im zweiten Bild (34); Ermitteln eines Überlappungsabschnittes (346) zwischen der epipolaren Bildlinie (344) und dem Bildbereich (342); Bestimmen einer Tiefeninformation des ersten Bildpunktes (244) basierend auf dem Überlappungsabschnitt (346). Method for the camera-based position determination for an object (62) in an environment (60) of an off-road vehicle, comprising obtaining a first image (24) and a second image (34), the first image (24) from a first camera from a Color camera (20) and a thermal camera (30) when capturing the environment (60) of the off-road vehicle is generated, the second image (34) from a second camera from the color camera (20) and the thermal camera (30) when capturing the Environment (60) of the off-road vehicle is generated; Defining an image area (342) in the second image (34) which at least partially comprises the object (62); Determining an epipolar image line (344) corresponding to a first image point (244) of the object (62) in the first image (24) in the second image (34); Determining an overlap portion (346) between the epipolar image line (344) and the image area (342); Determining depth information of the first image point (244) based on the overlap section (346).
Description
TECHNISCHES GEBIETTECHNICAL AREA
Die vorliegende Erfindung betrifft das Gebiet der Offroad-Fahrzeuge, insbesondere der autonom beziehungsweise teilautonom fahrenden Offroad-Fahrzeuge. Konkret betrifft die vorliegende Erfindung eine Vorrichtung, ein Verfahren, ein Computer-Programm-Produkt, ein computerlesbares Speichermedium sowie ein Datenträgersignal zur kamerabasierten Positionsbestimmung für in einem Umfeld des Offroad-Fahrzeugs befindliche Objekte.The present invention relates to the field of off-road vehicles, in particular off-road vehicles that drive autonomously or partially autonomously. Specifically, the present invention relates to a device, a method, a computer program product, a computer-readable storage medium and a data carrier signal for the camera-based position determination for objects located in the vicinity of the off-road vehicle.
TECHNISCHER HINTERGRUNDTECHNICAL BACKGROUND
Objekterkennung spielt bei der Positionsbestimmung von Objekten, die sich in einem Umfeld eines autonom oder teilautonom fahrendem Offroad-Fahrzeugs eine zentrale Rolle. Offroad-Fahrzeuge, insbesondere Industriefahrzeuge, Hafenfahrzeuge, Konstruktionsfahrzeuge, Landmaschinen, Roboter und/oder fahrerlose Transportsysteme (FTS, Engl.: Automated Guided Vehicle, AGV), sind aufgrund ihrer spezifischen Einsatzgebiete mit bestimmten Umfeldcharakteristiken konfrontiert. Beispielsweise wird das Verkehr auf einem Konstruktionsgelände nicht durch straßenübliche Verkehrsinfrastrukturen wie Ampeln und Vorfahrtszeichen geregelt. Aus diesem Grund ist es erforderlich, dass Konstruktionsfahrzeuge entweder mit Hilfe des Fahrers oder einer automatisierenden Fahrzeugsteuerung die sich im Umfeld befindlichen bzw. beweglichen Objekte, etwa Personen, andere Fahrzeuge und/oder Bebauungen, richtig erkennen, um Kollisionen zu vermeiden und einen störungsfreien Verkehrsfluss zu gewährleisten.Object recognition plays a central role in determining the position of objects that are in the environment of an autonomously or partially autonomously driving off-road vehicle. Off-road vehicles, in particular industrial vehicles, port vehicles, construction vehicles, agricultural machinery, robots and / or driverless transport systems (AGV), are confronted with certain environmental characteristics due to their specific areas of application. For example, traffic on a construction site is not regulated by road traffic infrastructures such as traffic lights and right-of-way signs. For this reason, it is necessary that construction vehicles, either with the help of the driver or an automated vehicle control system, correctly recognize the objects in the vicinity or moving objects, such as people, other vehicles and / or buildings, in order to avoid collisions and ensure a smooth flow of traffic guarantee.
Zwecks zuverlässigerer und schnellerer Objekterkennung sind in der Vergangenheit zahlreiche Lösungsansätze vorgeschlagen worden. Beispielsweise offenbart
Es besteht jedoch Bedarf an Verbesserung der Schnelligkeit und Genauigkeit der Objekterkennung. Die bekannten Lösungsansätze sind dahingehend mangelhaft, dass von den mittels Umfeldsensoren gewonnenen Daten nach dem Beseitigen der falschen Positiven zahlreiche Informationen ungenutzt weggefiltert werden. Die Verwertbarkeit der Sensordaten ist daher begrenzt. Auch der Zuversichtlichkeitsgrad, dass detektierte Sensorsignale einem bestimmten Objekt bzw. einer bestimmten Objektklasse zuzuordnen ist, ist bei den bekannten Lösungsansätzen aufgrund der Art und Weise der Datenverarbeitung und der der verwendeten Sensorik zugrunde liegenden physikalischen Gegebenheiten beschränkt.However, there is a need to improve the speed and accuracy of object recognition. The known approaches to a solution are inadequate in that, after the false positives have been eliminated, a great deal of information is filtered out of the data obtained by means of environmental sensors without being used. The usability of the sensor data is therefore limited. The degree of confidence that detected sensor signals can be assigned to a certain object or a certain object class is also limited in the known approaches due to the type and manner of data processing and the physical conditions underlying the sensor system used.
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, die Positionsbestimmung für im Umfeld eines vollständig oder teilweise autonom fahrenden Fahrzeugs befindliche Objekte hinsichtlich der Schnelligkeit und Zuverlässigkeit zu verbessern.The present invention is therefore based on the object of improving the position determination for objects located in the vicinity of a completely or partially autonomously driving vehicle with regard to speed and reliability.
Die Aufgabe wird gelöst durch eine Vorrichtung, ein Verfahren, ein Computer-Programm-Produkt, ein computerlesbares Speichermedium sowie ein Datenträgersignal gemäß den unabhängigen Ansprüchen.The object is achieved by a device, a method, a computer program product, a computer-readable storage medium and a data carrier signal according to the independent claims.
Die erfindungsgemäße Vorrichtung dient zur kamerabasierten Positionsbestimmung für ein Objekt, welches sich in einem Umfeld eines Offroad-Fahrzeugs befindet. Bei der erfindungsgemäßen Vorrichtung kann es sich beispielsweise um eine elektronische Steuer- oder Regeleinheit (engl. ECU = Electronic Control Unit), ein elektronisches Steuer- oder Regelmodul (ECM = Electronic Control Module) oder eine Steuer-/Regeleinheit für autonomes Fahren (z.B. ein „Autopilot“) handeln. Die Vorrichtung kann sich am Offroad-Fahrzeug befinden, oder außerhalb bzw. teilweise außerhalb des Fahrzeugs. Beispielsweise kann die erfindungsgemäße Vorrichtung Teil einer zentralen Überwachungseinrichtung im Straßenverkehr, insbesondere im Stadtverkehr, im Autobahnverkehr, auf einem zumindest teilweise geschlossenen industriellen, gewerblichen Gelände und/oder auf einer landwirtschaftlichen Nutzfläche sein. Die Kommunikation zwischen der erfindungsgemäßen Vorrichtung und dem Offroad-Fahrzeug bzw. zwischen der zentralen Überwachungseinrichtung und dem Offroad-Fahrzeug kann drahtlos, etwa über Bluetooth, Infrarot, Nahfeld-Kommunikation (Engl.: NFC), Funk, Internet, Intranet, Cloud-Systeme, Blockchain-Systeme, 4G-Kommunikationsnetzwerke, 5G-Kommunikationsnetzwerke und/oder verdrahtete Systeme erfolgen.The device according to the invention is used for the camera-based position determination for an object which is located in the surroundings of an off-road vehicle. The device according to the invention can be, for example, an electronic control or regulating unit (ECU = Electronic Control Unit), an electronic control or regulating module (ECM = Electronic Control Module) or a control / regulating unit for autonomous driving (e.g. a "Autopilot") act. The device can be located on the off-road vehicle, or outside or partially outside the vehicle. For example, the device according to the invention can be part of a central monitoring device in road traffic, in particular in city traffic, in motorway traffic, on an at least partially closed industrial, commercial site and / or on an agricultural area. The communication between the device according to the invention and the off-road vehicle or between the central monitoring device and the off-road vehicle can be wireless, for example via Bluetooth, infrared, near-field communication (NFC), radio, internet, intranet, cloud systems , Blockchain systems, 4G communication networks, 5G communication networks and / or wired systems.
Die Vorrichtung umfasst einen Dateneingang zum Erhalten eines ersten Bildes und eines zweiten Bildes. Das erste Bild ist von einer ersten Kamera aus einer Farbkamera und einer Wärmekamera beim Erfassen des Umfelds des Offroad-Fahrzeugs erzeugt. Die Farbkamera ist beispielsweise eine RGB-Kamera, insbesondere eine Kamera mit einem RGB-basierten Charge-Coulpled Density (CCD)-Chip oder einem Complementary Metal Oxide Semiconductor (CMOS)-Chip. Die Wärmekamera ist beispielsweise eine Infrarotkamera. Das zweite Bild ist von einer zweiten Kamera aus der Farbkamera und der Wärmekamera beim Erfassen des Umfelds des Offroad-Fahrzeugs erzeugt.The device comprises a data input for receiving a first image and a second image. The first image is generated by a first camera from a color camera and a thermal camera when capturing the surroundings of the off-road vehicle. The color camera is, for example, an RGB camera, in particular a camera with an RGB-based charge-coulpled density (CCD) chip or a complementary metal oxide semiconductor (CMOS) chip. The thermal camera is, for example, an infrared camera. The second picture is of one Second camera generated from the color camera and the thermal camera when capturing the surroundings of the off-road vehicle.
Dies bedeutet, das erste Bild kann von der Farbkamera erzeugt sein, wobei das zweite Bild von der Wärmekamera erzeugt ist. Alternativ kann das erste Bild von der Wärmekamera erzeugt sein, wobei das zweite Bild von der Farbkamera erzeugt ist.This means that the first image can be generated by the color camera, the second image being generated by the thermal camera. Alternatively, the first image can be generated by the thermal camera, the second image being generated by the color camera.
Die Vorrichtung umfasst außerdem eine Auswerteeinheit zum Festlegen eines Bildbereichs im zweiten Bild. Dieser stellt einen Teilbereich des zweiten Bildes dar, der zumindest teilweise die Abbildung des Objektes im zweiten Bild umschließt. Ein derartiger Bildbereich ist in der englischen Fachliteratur als „bounding box“ bezeichnet. Der Bildbereich kann auf verschiedenen Weisen erhalten werden: beispielsweise kann dieser mittels einer Objekterkennung basierend auf den Sensordaten der Farb- oder Wärmekamera bestimmt werden. Die Objekterkennung beruht vorzugsweise auf einer semantischen Segmentierung oder einer modellbasierten Segmentierung. The device also includes an evaluation unit for defining an image area in the second image. This represents a sub-area of the second image which at least partially encloses the image of the object in the second image. Such an image area is referred to as a “bounding box” in the English specialist literature. The image area can be obtained in various ways: for example, it can be determined by means of object recognition based on the sensor data from the color or thermal camera. The object recognition is preferably based on semantic segmentation or model-based segmentation.
Alternativ kann der Bildbereich basierend auf einem anderen Bildbereich ermittelt werden, der einen Teilbereich des ersten Bildes darstellt, der zumindest teilweise die Abbildung des Objektes im ersten Bild umschließt. Zwecks Unterscheidung handelt es sich beim Bildbereich im ersten Bild um einen ersten Bildbereich, wobei es sich beim Bildbereich im zweiten Bild um einen zweiten Bildbereich. Der erste Bildbereich kann mittels einer Objekterkennung basierend auf den Sensordaten der Wärme- oder Farbkamera (bzw. von der jeweils anderen Kamera als die Kamera, von der das zweite Bild erzeugt ist) bestimmt werden. Auch hier kommen die semantische Segmentierung und/oder die modellbasierte Segmentierung in Betracht.Alternatively, the image area can be determined based on another image area which represents a sub-area of the first image that at least partially encloses the image of the object in the first image. For the purpose of differentiation, the image area in the first image is a first image area, the image area in the second image being a second image area. The first image area can be determined by means of object recognition based on the sensor data from the thermal or color camera (or from the respective camera other than the camera from which the second image is generated). Semantic segmentation and / or model-based segmentation also come into consideration here.
Beispielsweise wird der erste Bildbereich basierend auf einer Relativposition zwischen der Farbkamera und der Wärmekamera, oder zwischen dem Bildkoordinatensystem der Farbkamera und dem Bildkoordinatensystem der Wärmekamera, modifiziert. Wenn die beiden Bildkoordinatensysteme gleich sind (Relativposition gleich Null), weist die Abbildung des Objektes im ersten und zweiten Bild die gleichen Bildkoordinaten auf. In diesem Fall kann als zweiter Bildbereich der erste Bildbereich übernommen werden, sodass der zweite Bildbereich die gleichen Bildelemente (z.B. Pixel) im zweiten Bild wie der erste Bildbereich im ersten Bild belegt. Je nach Relativposition kann der zweite Bereich durch eine entsprechende Modifikation (z.B. Drehung und/oder Verschiebung) des ersten Bildbereichs erhalten werden. Der so erhaltene modifizierte erste Bildbereich kann zusätzlich vergrößert werden. Der basierend auf dem ersten Bildbereich erzeugte zweite Bildbereich stellt vorteilhafterweise sicher, dass Bildpunkte im ersten Bildbereich auch im zweiten Bildbereich ebenfalls enthalten sind.For example, the first image area is modified based on a relative position between the color camera and the thermal camera, or between the image coordinate system of the color camera and the image coordinate system of the thermal camera. If the two image coordinate systems are the same (relative position equal to zero), the image of the object in the first and second image has the same image coordinates. In this case, the first image area can be used as the second image area, so that the second image area occupies the same image elements (e.g. pixels) in the second image as the first image area in the first image. Depending on the relative position, the second area can be obtained by a corresponding modification (e.g. rotation and / or displacement) of the first image area. The modified first image area obtained in this way can additionally be enlarged. The second image area generated based on the first image area advantageously ensures that image points in the first image area are also contained in the second image area.
Die Auswerteeinheit ist ferner dazu ausgebildet, einen ersten Bildpunkt des Objektes im ersten Bild zu definieren. Hierzu kann ein beliebiger Punkt der Abbildung des Objektes im ersten Bild selektiert werden. Die Selektion erfolgt automatisch oder manuell (z.B. per Benutzereingabe über eine Eingabeschnittstelle). Zum auf diese Weise bestimmten ersten Bildpunkt wird eine epipolare Bildlinie im zweiten Bild durch die Auswerteeinheit ermittelt.The evaluation unit is also designed to define a first image point of the object in the first image. Any point on the image of the object in the first image can be selected for this. The selection takes place automatically or manually (e.g. by user input via an input interface). For the first image point determined in this way, an epipolar image line is determined in the second image by the evaluation unit.
Die epipolare Linie wird vorzugsweise folgendermaßen bestimmt: zunächst wird eine erste gedankliche Verbindungslinie zwischen dem ersten Bildpunkt und einem ersten Brennpunkt der ersten Kamera bestimmt. Danach werden mehrere Punkte auf der ersten gedanklichen Verbindungslinie ausgewählt. Des Weiteren werden mehrere zweite gedankliche Verbindungslinien zwischen den mehreren Punkten auf der ersten gedanklichen Verbindungslinie und einem zweiten Brennpunkt der zweiten Kamera bestimmt. Diese mehreren zweiten gedanklichen Verbindungslinien überschneiden die Bildfläche, in der das zweite Bild liegt, in mehreren Überschneidungspunkten. Diese Überschneidungspunkte bilden schließlich die epipolare Linie. Näherungsweise kann zur Bestimmung der epipolaren Linie eine Gerade zum Anfitten der mehreren Überschneidungspunkte ermittelt werden.The epipolar line is preferably determined as follows: a first conceptual connecting line between the first image point and a first focal point of the first camera is determined. Then several points are selected on the first line of thought. Furthermore, several second mental connecting lines are determined between the several points on the first mental connecting line and a second focal point of the second camera. These several second mental connecting lines intersect the image area in which the second image lies in several intersection points. These intersection points ultimately form the epipolar line. To determine the epipolar line, a straight line for fitting the multiple intersection points can be determined approximately.
Die Auswerteeinheit ist außerdem dazu ausgebildet, einen Überlappungsabschnitt zwischen der epipolaren Bildlinie und dem (zweiten) Bildbereich zu ermitteln. Basierend auf dem Überlappungsabschnitt kann eine Tiefeninformation des ersten Bildpunktes bestimmt werden. Die Tiefeninformation bezeichnet einen Raumkoordinaten außerhalb der Bildfläche der ersten Kamera und ist ein Maßstab für die Entfernung des Objektes relativ zur Kamera.The evaluation unit is also designed to determine an overlap section between the epipolar image line and the (second) image area. Depth information of the first image point can be determined based on the overlap section. The depth information designates a spatial coordinate outside the image area of the first camera and is a measure of the distance of the object relative to the camera.
Erfindungsgemäß kann somit die Menge der Bildpunkte im zweiten Bild, die zur Bestimmung der Tiefeninformation des Bildpunktes und somit zur Positionsbestimmung des Objektes stark reduziert werden. Dies führt vorteilhafterweise zu einer Verringerung des zur Positionsbestimmung erforderlichen Rechenaufwandes. Die Positionsbestimmung für das autonom fahrende Offroad-Fahrzeug wird daher schneller und behält ihre Genauigkeit und Zuverlässigkeit gleichzeitig bei.According to the invention, the number of image points in the second image which is used to determine the depth information of the image point and thus to determine the position of the object can thus be greatly reduced. This advantageously leads to a reduction in the computational effort required to determine the position. The position determination for the autonomously driving off-road vehicle is therefore faster and maintains its accuracy and reliability at the same time.
Vorteilhafte Ausgestaltungen und Weiterbildungen sind in den Unteransprüchen angegeben.Advantageous refinements and developments are specified in the subclaims.
Gemäß einer Ausführungsform umfasst das erfindungsgemäße Verfahren ferner Bestimmen eines zweiten Bildpunktes im Überlappungsabschnitt, wobei der zweite Bildpunkt dem ersten Bildpunkt entspricht.According to one embodiment, the method according to the invention further comprises determining a second pixel in the overlap section, wherein the second pixel corresponds to the first pixel.
Der zweite Bildpunkt dient vorzugsweise dazu, der dem ersten Bildpunkt entsprechenden Objektpunkt des Objektes mittels einer Triangulation basierend auf dem ersten Bildpunkt und dem zweiten Bildpunkt sowie der Relativposition zwischen dem ersten und zweiten Bildpunkt zu ermitteln. Dies ermöglicht eine besonders genaue Positionsbestimmung.The second image point is preferably used to determine the object point of the object corresponding to the first image point by means of a triangulation based on the first image point and the second image point and the relative position between the first and second image point. This enables a particularly precise position determination.
Gemäß einer weiteren Ausführungsform wird der zweite Bildpunkt basierend auf einem Korrelationswert zwischen dem ersten Bildpunkt einerseits und mehreren Bildpunkten des Überlappungsabschnittes andererseits bestimmt.According to a further embodiment, the second pixel is determined based on a correlation value between the first pixel on the one hand and a plurality of pixels of the overlap section on the other hand.
Der zweite Bildpunkt wird aus mehreren im Überlappungsabschnitt liegenden Bildpunkten im zweiten Bild bestimmt: zunächst wird der Korrelationswert für jeden der mehreren im Überlappungsabschnitt liegenden Bildpunkte ermittelt. Anschließend wird der Bildpunkt mit dem höchsten Korrelationswert als zweiter Bildpunkt selektiert. Dies ermöglicht eine besonders genaue Bestimmung des zweiten Bildpunktes, sodass die Positionsbestimmung besonders zuverlässig ist.The second image point is determined from a plurality of image points located in the overlapping section in the second image: first of all, the correlation value is determined for each of the several image points located in the overlapping section. The pixel with the highest correlation value is then selected as the second pixel. This enables a particularly precise determination of the second image point, so that the position determination is particularly reliable.
Gemäß einer weiteren Ausführungsform betrifft der Korrelationswert eine Korrelation hinsichtlich eines Gradienten der mehreren Bildpunkte des Überlappungsabschnittes.According to a further embodiment, the correlation value relates to a correlation with regard to a gradient of the plurality of pixels of the overlap section.
Beispielsweise kann für den ersten Bildpunkt ein erster Gradientenwert und für jeden der mehreren im Überlappungsabschnitt liegenden Bildpunkte jeweils ein zweiter Gradientenwert ermittelt werden. Aus einem Vergleich zwischen dem ersten Gradientenwert und dem jeweiligen zweiten Gradientenwert kann derjenige Bildpunkt des Überlappungsabschnittes, dessen Gradiententwert die kleinste Differenz zum Gradientenwert des ersten Bildpunktes aufweist, bestimmt werden. Unter „Gradient“ kann die Steigung einer Bildkontur (z.B. Grenzverlauf zwischen den Bildpunkten des Objektes und den Bildpunkten des Hintergrundes) im ersten Bildpunkt bzw. im jeweiligen der im Überlappungsabschnitt liegenden Bildpunkte verstanden werden.For example, a first gradient value can be determined for the first image point and a second gradient value can be determined for each of the multiple image points located in the overlap section. From a comparison between the first gradient value and the respective second gradient value, that pixel of the overlapping section whose gradient value has the smallest difference to the gradient value of the first pixel can be determined. “Gradient” can be understood to mean the slope of an image contour (e.g. boundary between the image points of the object and the image points of the background) in the first image point or in the respective image points located in the overlap section.
Gemäß einer weiteren Ausführungsform umfasst der erste Bildpunkt einen Randpunkt des Objektes im ersten Bildbereich.According to a further embodiment, the first image point comprises an edge point of the object in the first image area.
Der Randpunkt liegt auf einer Kontur des Objektes, z.B. im Grenzverlauf zwischen den Bildpunkten des Objektes und den Bildpunkten des Hintergrundes. Auf diese Weise können besonders markante Bildpunkte für die Wahl des ersten Bildpunktes zur Verfügung stehen, sodass der erste Bildpunkt auf einfache Weise bestimmbar ist.The edge point lies on a contour of the object, e.g. in the boundary between the image points of the object and the image points of the background. In this way, particularly distinctive image points can be available for the selection of the first image point, so that the first image point can be determined in a simple manner.
Das erfindungsgemäße Computerprogrammprodukt ist ausgeführt, in einen Speicher eines Computers geladen zu werden und umfasst Softwarecodeabschnitte, mit denen die Verfahrensschritte des erfindungsgemäßen Verfahrens ausgeführt werden, wenn das Computerprogrammprodukt auf dem Computer läuft.The computer program product according to the invention is designed to be loaded into a memory of a computer and comprises software code sections with which the method steps of the method according to the invention are carried out when the computer program product is running on the computer.
Ein Programm gehört zur Software eines Daten verarbeitenden Systems, zum Beispiel einer Auswerteeinrichtung oder einem Computer. Software ist ein Sammelbegriff für Programme und zugehörigen Daten. Das Komplement zu Software ist Hardware. Hardware bezeichnet die mechanische und elektronische Ausrichtung eines Daten verarbeitenden Systems. Ein Computer ist eine Auswerteeinrichtung.A program belongs to the software of a data processing system, for example an evaluation device or a computer. Software is a collective term for programs and associated data. The complement to software is hardware. Hardware describes the mechanical and electronic alignment of a data processing system. A computer is an evaluation device.
Computerprogrammprodukte umfassen in der Regel eine Folge von Befehlen, durch die die Hardware bei geladenem Programm veranlasst wird, ein bestimmtes Verfahren durchzuführen, das zu einem bestimmten Ergebnis führt. Wenn das betreffende Programm auf einem Computer zum Einsatz kommt, ruft das Computerprogrammprodukt den oben beschriebenen erfinderischen technischen Effekt hervor.Computer program products generally comprise a sequence of instructions which, when the program is loaded, cause the hardware to carry out a specific method that leads to a specific result. When the program in question is used on a computer, the computer program product produces the inventive technical effect described above.
Das erfindungsgemäße Computerprogrammprodukt ist Plattform unabhängig. Das heißt, es kann auf jeder beliebigen Rechenplattform ausgeführt werden. Bevorzugt wird das Computerprogrammprodukt auf einer erfindungsgemäßen Auswertevorrichtung zum Erfassen des Umfelds des Fahrzeugs ausgeführt.The computer program product according to the invention is platform independent. That means it can run on any computing platform. The computer program product is preferably executed on an evaluation device according to the invention for detecting the surroundings of the vehicle.
Die Softwarecodeabschnitte sind in einer beliebigen Programmiersprache geschrieben, zum Beispiel in Python, Java, JavaScript, C, C++, C#, Matlab, LabView, Objective C.The software code sections are written in any programming language, for example in Python, Java, JavaScript, C, C ++, C #, Matlab, LabView, Objective C.
Das computerlesbare Speichermedium ist beispielsweise ein elektronisches, magnetisches, optisches oder magneto-optisches Speichermedium.The computer-readable storage medium is, for example, an electronic, magnetic, optical or magneto-optical storage medium.
Das Datenträgersignal ist ein Signal, welches das Computer-Programm-Produkt von einem Speichermedium, auf dem das Computer-Programm-Produkt gespeichert ist, auf eine andere Entität, beispielsweise ein anderes Speichermedium, einen Server, ein Cloud-System, ein drahtloses Kommunikationssystem der 4G/5G oder eine Daten verarbeitende Einrichtung, überträgt.The data carrier signal is a signal which the computer program product from a storage medium on which the computer program product is stored to another entity, for example another storage medium, a server, a cloud system, a wireless communication system 4G / 5G or a data processing facility, transmits.
Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Es zeigen:
-
1 eine schematische Darstellung einer Vorrichtung zur Positionsbestimmung gemäß einer Ausführungsform; und -
2 eine schematische Darstellung des Prinzips der Positionsbestimmung mittels der Vorrichtung aus1 .
-
1 a schematic representation of a device for determining position according to an embodiment; and -
2 a schematic representation of the principle of position determination by means of the device1 .
In den Figuren beziehen sich gleiche Bezugszeichen auf gleiche oder funktionsähnliche Bezugsteile. In den einzelnen Figuren sind die jeweils relevanten Bezugsteile gekennzeichnet.In the figures, the same reference symbols relate to the same or functionally similar reference parts. The relevant reference parts are identified in the individual figures.
Die Vorrichtung
Alternativ kann das erste Bild
Die Vorrichtung umfasst außerdem eine Auswerteeinheit
Alternativ kann, wie in
Die Auswerteeinheit
Zum auf diese Weise bestimmten ersten Bildpunkt
Die Auswerteeinheit
Die Tiefeninformation kann vorzugsweise ermittelt werden, indem die Bildpunkte, die im Überlappungsabschnitt
BezugszeichenlisteList of reference symbols
- 1010
- Vorrichtungcontraption
- 1212
- erster Dateneingangfirst data entry
- 1414th
- zweiter Dateneingangsecond data input
- 1616
- AuswerteeinheitEvaluation unit
- 1818th
- SignalausgangSignal output
- 2020th
- FarbkameraColor camera
- 2424
- erstes Bildfirst picture
- 242242
- erster Bildbereichfirst image area
- 244244
- erster Bildpunktfirst pixel
- 3030th
- WärmekameraThermal camera
- 3434
- zweites Bildsecond picture
- 342342
- zweiter Bildbereichsecond image area
- 344344
- epipolare Linieepipolar line
- 346346
- ÜberlappungsabschnittOverlap section
- 6060
- Umfeldenvironment
- 6262
- Objekt (Mensch)Object (human)
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- US 2016/0026880 A1 [0003]US 2016/0026880 A1 [0003]
- WO 2011/160672 [0003]WO 2011/160672 [0003]
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019206231.8A DE102019206231A1 (en) | 2019-04-30 | 2019-04-30 | Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019206231.8A DE102019206231A1 (en) | 2019-04-30 | 2019-04-30 | Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019206231A1 true DE102019206231A1 (en) | 2020-11-05 |
Family
ID=72839124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019206231.8A Withdrawn DE102019206231A1 (en) | 2019-04-30 | 2019-04-30 | Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019206231A1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007013664A1 (en) * | 2006-03-22 | 2007-09-27 | Daimlerchrysler Ag | Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient |
DE102009034026A1 (en) * | 2009-07-21 | 2011-01-27 | Bayerische Motoren Werke Aktiengesellschaft | Method for recognizing object in environment of sensor system of vehicle, involves realizing object recognition based on determined candidates and part of environment detected by complementary metal oxide semiconductor-camera |
WO2011160672A1 (en) * | 2010-06-21 | 2011-12-29 | Centre De Visió Per Computador | Method for obtaining drivable road area |
DE102014105297A1 (en) * | 2014-04-14 | 2015-10-15 | Connaught Electronics Ltd. | Method for detecting an object in a surrounding area of a motor vehicle by means of a camera system of the motor vehicle, camera system and motor vehicle |
US20160026880A1 (en) * | 2014-07-28 | 2016-01-28 | Hyundai Mobis Co., Ltd. | Driving assist system for vehicle and method thereof |
DE112015001741T5 (en) * | 2014-04-08 | 2016-12-29 | Tk Holdings Inc. | System and method for night vision object detection and driver assistance |
DE102017117212A1 (en) * | 2016-08-02 | 2018-02-08 | Samsung Electronics Co., Ltd. | System and method for stereotriangulation |
-
2019
- 2019-04-30 DE DE102019206231.8A patent/DE102019206231A1/en not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007013664A1 (en) * | 2006-03-22 | 2007-09-27 | Daimlerchrysler Ag | Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient |
DE102009034026A1 (en) * | 2009-07-21 | 2011-01-27 | Bayerische Motoren Werke Aktiengesellschaft | Method for recognizing object in environment of sensor system of vehicle, involves realizing object recognition based on determined candidates and part of environment detected by complementary metal oxide semiconductor-camera |
WO2011160672A1 (en) * | 2010-06-21 | 2011-12-29 | Centre De Visió Per Computador | Method for obtaining drivable road area |
DE112015001741T5 (en) * | 2014-04-08 | 2016-12-29 | Tk Holdings Inc. | System and method for night vision object detection and driver assistance |
DE102014105297A1 (en) * | 2014-04-14 | 2015-10-15 | Connaught Electronics Ltd. | Method for detecting an object in a surrounding area of a motor vehicle by means of a camera system of the motor vehicle, camera system and motor vehicle |
US20160026880A1 (en) * | 2014-07-28 | 2016-01-28 | Hyundai Mobis Co., Ltd. | Driving assist system for vehicle and method thereof |
DE102017117212A1 (en) * | 2016-08-02 | 2018-02-08 | Samsung Electronics Co., Ltd. | System and method for stereotriangulation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3584663B1 (en) | Method for automatic transverse guidance of a follow vehicle in a vehicle platoon | |
DE102017129075A1 (en) | PARKING NAVIGATION SYSTEM AND METHOD | |
EP3824247A1 (en) | Method and system for determining a position of a vehicle | |
DE102020113848A1 (en) | ECCENTRICITY FUSION | |
EP2629243A1 (en) | Method for detecting and tracking lane markings | |
DE102019106375A1 (en) | Vehicle control device | |
DE102015208599A1 (en) | Object detection device | |
DE102019209736A1 (en) | Procedure for evaluating possible trajectories | |
DE112016000423T5 (en) | SECTION LINE DETECTION DEVICE | |
DE102020200169B3 (en) | Method for merging several data sets for the generation of a current lane model of a roadway and device for data processing | |
WO2020048669A1 (en) | Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle | |
DE102018121008A1 (en) | CROSS TRAFFIC RECORDING USING CAMERAS | |
DE102018123393A1 (en) | Detection of parking areas | |
DE112018004003T5 (en) | CONTROL AND METHOD FOR AUTOMATIC DRIVING | |
DE102020112825A1 (en) | Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle | |
DE102020124331A1 (en) | VEHICLE TRACK MAPPING | |
DE112020002753T5 (en) | VEHICLE CONTROL METHOD, VEHICLE CONTROL DEVICE AND VEHICLE CONTROL SYSTEM INCLUDING THEM | |
DE102019208507A1 (en) | Method for determining the degree of overlap between an object and a lane | |
DE102018109680A1 (en) | Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product | |
DE102019206231A1 (en) | Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line | |
DE112022002046T5 (en) | DRIVING DEVICE, VEHICLE AND METHOD FOR AUTOMATED DRIVING AND/OR ASSISTED DRIVING | |
DE102011111856B4 (en) | Method and device for detecting at least one lane in a vehicle environment | |
DE102023002044B3 (en) | Method for a model-based fusion of different sensor modalities | |
DE102013217061A1 (en) | Accurate positioning of a vehicle | |
DE102021206475A1 (en) | Obstacle detection in the track area based on depth data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |