DE102021208144A1 - Method for self-motion estimation and position determination of a vehicle - Google Patents
Method for self-motion estimation and position determination of a vehicle Download PDFInfo
- Publication number
- DE102021208144A1 DE102021208144A1 DE102021208144.4A DE102021208144A DE102021208144A1 DE 102021208144 A1 DE102021208144 A1 DE 102021208144A1 DE 102021208144 A DE102021208144 A DE 102021208144A DE 102021208144 A1 DE102021208144 A1 DE 102021208144A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- relative
- objects
- view
- field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Eigenbewegungsschätzung eines Fahrzeugs (2) in Bezug auf eine Umgebung des Fahrzeugs, wobei das Fahrzeug (2) eine Innenraum-kamera (10; 20) umfasst, deren Sichtfeld (12; 22) in den Innenraum einer Fahrgastzelle des Fahrzeugs gerichtet ist, umfassend Bestimmen (100) wenigstens eines Sichtfeld-Ausschnitts (141, 142, 143, 144, 145; 241, 242, 243), in dem die Innenraumkamera einen Bereich in der Umgebung des Fahrzeugs erfasst; Erfassen (110) zeitlich aufeinanderfolgender Bilder mittels der Innenraumkamera (10; 20); Bilden (120) wenigstens einer Folge von Bildausschnitten, wobei ein Bildausschnitt jeweils einen Bereich eines der Bilder einschließt, der dem wenigstens einen Sichtfeld-Ausschnitt (141, 142, 143, 144, 145; 241, 242, 243) entspricht; Erkennen (130) eines oder mehrerer Objekte (4) in der Umgebung des Fahrzeugs (2) in der wenigstens einen Folge von Bildausschnitten und Bestimmen einer oder mehrerer Relativgeschwindigkeiten des Fahrzeugs relativ zu dem einen oder den mehreren Objekten (4) auf Grundlage der Relativbewegung des einen oder der mehreren Objekte in der wenigstens einen Folge von Bildausschnitten; Bestimmen (140) einer oder mehrerer Geschwindigkeitskomponenten des Fahrzeugs (4) relativ zur Umgebung basierend auf der einen oder den mehreren Relativgeschwindigkeiten. Die Erfindung betrifft weiterhin ein Verfahren zur Positionsbestimmung eines Fahrzeugs.The invention relates to a method for estimating the movement of a vehicle (2) in relation to the surroundings of the vehicle, the vehicle (2) comprising an interior camera (10; 20) whose field of view (12; 22) extends into the interior of a passenger cell of the vehicle Vehicle is directed, comprising determining (100) at least one field of view section (141, 142, 143, 144, 145; 241, 242, 243), in which the interior camera detects an area in the vicinity of the vehicle; Acquiring (110) temporally consecutive images by means of the interior camera (10; 20); Forming (120) at least one sequence of image sections, each image section enclosing a region of one of the images that corresponds to the at least one field of view section (141, 142, 143, 144, 145; 241, 242, 243); Recognizing (130) one or more objects (4) in the area surrounding the vehicle (2) in the at least one sequence of image sections and determining one or more relative speeds of the vehicle relative to the one or more objects (4) on the basis of the relative movement of the one or more objects in the at least one sequence of image sections; Determining (140) one or more speed components of the vehicle (4) relative to the environment based on the one or more relative speeds. The invention also relates to a method for determining the position of a vehicle.
Description
Die vorliegende Erfindung betrifft ein Verfahren zur Eigenbewegungsschätzung eines Fahrzeugs in Bezug auf eine Umgebung des Fahrzeugs, ein Verfahren zur Positionsbestimmung eines Fahrzeugs sowie eine Recheneinheit und ein Computerprogramm zu deren Durchführung.The present invention relates to a method for estimating a vehicle's own movement in relation to surroundings of the vehicle, a method for determining the position of a vehicle, and a computing unit and a computer program for carrying it out.
Hintergrund der ErfindungBackground of the Invention
Odometrie beschäftigt sich mit dem Problem, die Position und die Orientierung eines mobilen Körpers, etwa eines Fahrzeugs und/oder Roboters, zu bestimmen. Dazu kann der Bewegungszustand des Körpers bestimmt werden, z.B. eine Geschwindigkeit und/oder eine Winkelgeschwindigkeit, denen Unterschiede zeitlich aufeinanderfolgender Positionen bzw. Orientierungen des Körpers entsprechen. Zur Bestimmung des Bewegungszustands können inertiale Messeinrichtungen, d.h. Beschleunigungssensoren und Gyroskope, eingesetzt werden, die den Bewegungszustand oder Komponenten davon direkt durch Messung bestimmen.Odometry deals with the problem of determining the position and orientation of a mobile body, such as a vehicle and/or robot. For this purpose, the state of motion of the body can be determined, e.g. a speed and/or an angular speed, to which differences in temporally consecutive positions or orientations of the body correspond. Inertial measuring devices, i.e. acceleration sensors and gyroscopes, can be used to determine the state of motion, which determine the state of motion or components thereof directly by measurement.
Offenbarung der ErfindungDisclosure of Invention
Erfindungsgemäß werden ein Verfahren zur Eigenbewegungsschätzung eines Fahrzeugs in Bezug auf eine Umgebung des Fahrzeugs, ein Verfahren zur Positionsbestimmung eines Fahrzeugs sowie eine Recheneinheit und ein Computerprogramm zu deren Durchführung mit den Merkmalen der unabhängigen Patentansprüche vorgeschlagen. Vorteilhafte Ausgestaltungen sind Gegenstand der Unteransprüche sowie der nachfolgenden Beschreibung.According to the invention, a method for estimating the movement of a vehicle in relation to the surroundings of the vehicle, a method for determining the position of a vehicle, and a computing unit and a computer program for carrying them out with the features of the independent patent claims are proposed. Advantageous configurations are the subject of the dependent claims and the following description.
Das bereitgestellte Verfahren ermöglicht es, die Eigenbewegung des Fahrzeugs, d.h. dessen Bewegung relativ zur Umgebung, zu schätzen bzw. zu bestimmen, ohne dass dafür eigens nach Außen gerichtete Sensoren (etwa Radar- oder Lidarsensoren) oder Kameras an der Außenseite des Fahrzeugs vorgesehen sind. Mittels dieser Eigenbewegungsschätzung lässt sich insbesondere die Positionsbestimmung des Fahrzeugs verbessern, z.B. wenn nur ungenaue Positionsdaten eines Positionsbestimmungssystems vorliegen.The method provided makes it possible to estimate or determine the vehicle's own movement, i.e. its movement relative to the environment, without the need for externally directed sensors (e.g. radar or lidar sensors) or cameras on the outside of the vehicle. This estimation of one's own motion can be used in particular to improve the position determination of the vehicle, e.g. if only inaccurate position data from a position determination system is available.
Das erfindungsgemäße Verfahren betrifft die Eigenbewegungsschätzung eines Fahrzeugs in Bezug auf eine Umgebung des Fahrzeugs, wobei das Fahrzeug eine Innenraumkamera umfasst, deren Sichtfeld in den Innenraum einer Fahrgastzelle des Fahrzeugs gerichtet ist.The method according to the invention relates to the estimation of a vehicle's own movement in relation to surroundings of the vehicle, the vehicle comprising an interior camera whose field of view is directed into the interior of a passenger compartment of the vehicle.
Sogenannte „Innenraumkameras“ sind in vielen neueren Fahrzeugen vorgesehen oder können nachträglich eingebaut werden. Diese dienen primär der Erfassung des Fahrerzustands (Kopfposition, Körperposition, Blickrichtung, Augenlidschluss, (Hand-)Gesten) und/oder der Detektion weiterer Personen oder Gepäck im Innenraum. Auch zur Erkennung von Tätigkeiten (Rauchen, Trinken, usw.) und Interaktionen bis hin zur Detektion von Gewaltausübungen können Innenraumkameras eingesetzt werden. Auch wenn Innenraumkameras auf den Innenraum ausgerichtet sind, können diese durch Fenster auch Bereich außerhalb des Fahrzeugs, d.h. im Außenraum des Fahrzeugs, erfassen.So-called "interior cameras" are provided in many newer vehicles or can be retrofitted. These are primarily used to record the driver's condition (head position, body position, line of sight, eyelid closure, (hand) gestures) and/or to detect other people or luggage in the interior. Interior cameras can also be used to detect activities (smoking, drinking, etc.) and interactions, including the use of violence. Even if interior cameras are aimed at the interior, they can also capture the area outside the vehicle through windows, i.e. outside the vehicle.
Erfindungsgemäß umfasst das Verfahren ein Bestimmen wenigstens eines Sichtfeld-Ausschnitts, in dem die Innenraumkamera einen Bereich in der Umgebung des Fahrzeugs erfasst; ein Erfassen zeitlich aufeinanderfolgender Bilder mittels der Innenraumkamera; Bilden wenigstens einer Folge von Bildausschnitten, wobei ein Bildausschnitt jeweils einen Bereich eines der Bilder einschließt, der dem wenigstens einen Sichtfeld-Ausschnitt entspricht; ein Erkennen eines oder mehrerer Objekte in der Umgebung des Fahrzeugs in der wenigstens einen Folge von Bildausschnitten und ein Bestimmen einer oder mehrerer Relativgeschwindigkeiten des Fahrzeugs relativ zu dem einen oder den mehreren Objekten auf Grundlage der Relativbewegung des einen oder der mehreren Objekte in der wenigstens einen Folge von Bildausschnitten; und ein Bestimmen einer oder mehrerer Geschwindigkeitskomponenten des Fahrzeugs relativ zur Umgebung basierend auf der einen oder den mehreren Relativgeschwindigkeiten.According to the invention, the method includes determining at least one field of view section in which the interior camera captures an area in the area surrounding the vehicle; capturing chronologically consecutive images by means of the interior camera; Forming at least one sequence of image sections, each image section including an area of one of the images that corresponds to the at least one field of view section; detecting one or more objects in the area surrounding the vehicle in the at least one sequence of image sections and determining one or more relative speeds of the vehicle relative to the one or more objects on the basis of the relative movement of the one or more objects in the at least one sequence of image sections; and determining one or more velocity components of the vehicle relative to the environment based on the one or more relative velocities.
Der Begriff „Sichtfeld-Ausschnitt“ bezeichnet einen Teilbereich innerhalb des Sichtfelds der Innenraumkamera. Bei einem Sichtfeld-Ausschnitt handelt es sich um einen Teilbereich des Sichtfelds der Innenraumkamera, in dem der Außenraum des Fahrzeugs, d.h. die Umgebung bzw. ein Bereich der Umgebung, für die Innenraumkamera sichtbar ist und entsprechend von der Innenraumkamera erfasst wird. Insbesondere entsprechen diese Sichtfeld-Ausschnitte Fenstern des Fahrzeugs.The term "field of view section" refers to a section within the field of view of the interior camera. A section of the field of view is a part of the field of view of the interior camera, in which the exterior of the vehicle, i.e. the environment or an area of the environment, is visible to the interior camera and is recorded accordingly by the interior camera. In particular, these field of view sections correspond to windows of the vehicle.
Das gesamte Sichtfeld der Innenraumkamera kann mehrere Sichtfeld-Ausschnitte umfassen, insbesondere in Abhängigkeit von der Kameraposition, der Kameraorientierung und den Fenstern. Die Summe der Raumwinkelbereiche der Sichtfeld-Ausschnitte ist typischerweise nur ein Teil, als Raumwinkel-Anteil bezeichnet, des gesamten Raumwinkelbereichs, der dem Sichtfeld der Innenraumkamera entspricht bzw. der von der Innenraumkamera erfasst wird. Der Raumwinkel-Anteil kann kleiner 50 % oder kleiner 25 % sein. Vorzugsweise kann der Raumwinkel-Anteil im Bereich von 1 % bis 50 %, weiter bevorzugt im Bereich von 2 % bis 25 %, noch weiter bevorzugt im Bereich von 5 % bis 10 %, liegen.The entire field of view of the interior camera can include a number of field of view sections, in particular depending on the camera position, the camera orientation and the windows. The sum of the solid angle ranges of the field of view excerpts is typically only a part, referred to as the solid angle portion, of the entire solid angle range that corresponds to the field of view of the interior camera or that is captured by the interior camera. The solid angle component can be less than 50% or less than 25%. The solid angle fraction can preferably be in the range from 1% to 50%, more preferably in the range from 2% to 25%, even more preferably in the range from 5% to 10%.
Die „Bildausschnitte“ sind diejenigen Bereiche der erfassten Bilder, die den Sichtfeld-Ausschnitten entsprechen. Die Bildausschnitte sind also Teilbilder, in denen Bereiche der Umgebung dargestellt sind bzw. erfasst sind.The "image sections" are those areas of the captured images that correspond to the field of view sections. The image sections are therefore sub-images in which areas of the environment are shown or recorded.
Erfasste Objekte können über mehrere Bilder bzw. über mehrere Bildausschnitte verfolgt werden, so dass sich bei bekanntem zeitlichem Abstand der Bilder und bekannter relativer Position der Objekte zum Fahrzeug jeweils Relativgeschwindigkeiten der Objekte zum Fahrzeug berechnen lassen. Die relative Position eines Objekts zum Fahrzeug ergibt sich aus dem Winkel (genauer Raumwinkelbereich) an dem sich das Objekt innerhalb des Sichtfelds der Innenraumkamera befindet (und der gemessen wird) zusammen mit der bekannten Kameraposition der Innenraumkamera im Fahrzeug und der bekannten Kameraorientierung der Innenraumkamera relativ zum Fahrzeug. Der gemessene Fluss auf vorzugsweise statischen Objekten ist eine sehr gute Messgröße, die zur Berechnung der Eigenbewegung des Fahrzeuges verwendet werden kann. Zusammen mit der intrinsischen und extrinsischen Kalibrierung der Kamera und Objektannahmen (beispielsweise der Fahrbahn) kann daraus die Bewegung des eigenen Fahrzeuges bestimmt werden.Detected objects can be tracked over a number of images or over a number of image sections, so that when the time interval between the images and the relative position of the objects relative to the vehicle are known, relative speeds of the objects relative to the vehicle can be calculated. The relative position of an object to the vehicle results from the angle (precise solid angle range) at which the object is located within the field of view of the interior camera (and which is measured) together with the known camera position of the interior camera in the vehicle and the known camera orientation of the interior camera relative to the Vehicle. The flow measured on preferably static objects is a very good measurement variable that can be used to calculate the vehicle's own movement. Together with the intrinsic and extrinsic calibration of the camera and object assumptions (e.g. the roadway), the movement of one's own vehicle can be determined from this.
Im Allgemeinen werden mehrere Relativgeschwindigkeiten bestimmt, aus denen sich dann in geeigneter Weise eine oder mehrere Geschwindigkeitskomponenten des Fahrzeugs bestimmen lassen. Wobei hier die geometrischen Beziehungen zwischen den Objekten und dem Fahrzeug berücksichtigt werden, mittels derer die Relativgeschwindigkeiten mit den Geschwindigkeitskomponenten in Verbindung stehen.In general, a number of relative speeds are determined, from which one or more speed components of the vehicle can then be determined in a suitable manner. The geometric relationships between the objects and the vehicle are taken into account here, by means of which the relative speeds are linked to the speed components.
Vorzugsweise können auch mehrere Innenraumkameras verwendet werden. Das Verfahren wird dann für jede der Innenraumkameras durchgeführt, wobei verschiedene Innenraumkameras verschiedene Sichtfeld-Ausschnitte aufweisen. Dies kann zu einer höheren Genauigkeit führen.Preferably, several interior cameras can also be used. The method is then carried out for each of the interior cameras, with different interior cameras having different field of view sections. This can lead to higher accuracy.
Vorzugsweise wird beim Erkennen des einen oder der mehreren Objekte ein Objekterkennungs-Algorithmus verwendet, der bevorzugt dazu eingerichtet ist, erkannte Objekte zu klassifizieren, wobei jedem erkannten Objekt eine Verlässlichkeit basierend auf der Klassifizierung zugewiesen wird. Objekterkennungs-Algorithmen, d.h. Algorithmen, die erkannte Objekte klassifizieren, insbesondere, um welche Objekte es sich handelt, sind dem Fachmann an sich bekannt. Der Begriff Verlässlichkeit bezeichnet hier die Verlässlichkeit dahingehend, ob bzw. inwieweit eine Relativgeschwindigkeit, die sich auf ein Objekt bezieht, zur Eigenbewegungsschätzung geeignet ist. Beispielsweise könnte die Verlässlichkeit eine reelle Zahl im Bereich von 0 bis 1 sein, wobei 0 heißt, dass das Objekt bzw. dessen Relativgeschwindigkeit gar nicht geeignet ist, und 1 heißt, dass das Objekt bzw. dessen Relativgeschwindigkeit sehr gut geeignet ist; dazwischen liegende Zahlen bezeichnen entsprechend eine mehr oder weniger hohe teilweise Verlässlichkeit.When recognizing the one or more objects, an object recognition algorithm is preferably used, which is preferably set up to classify recognized objects, with each recognized object being assigned a reliability based on the classification. Object recognition algorithms, i.e. algorithms that classify recognized objects, in particular which objects are involved, are known per se to a person skilled in the art. The term reliability refers here to the reliability as to whether or to what extent a relative speed that relates to an object is suitable for estimating its own motion. For example, the reliability could be a real number in the range from 0 to 1, where 0 means that the object or its relative speed is not suitable at all, and 1 means that the object or its relative speed is very suitable; numbers in between indicate a more or less high partial reliability.
Bevorzugt ist der Objekterkennungs-Algorithmus dazu eingerichtet, in der Umgebung statische Objekte zu erkennen, und weiter bevorzugt dazu eingerichtet, in der Umgebung potentiell dynamische Objekte zu erkennen. In der Umgebung können statische Objekte z.B. Gebäude, Verkehrszeichen, Ampelanlagen, Bäume, Straßenmarkierungen, Schutzplanken und/oder ähnliches sein. Diese sind besonders geeignet zur Bewegungsabschätzung. In der Umgebung können potentiell (bzw. möglicherweise) dynamische Objekte z.B. Fahrzeuge, Personen und/oder ähnliches sein. Diese können einerseits bezüglich der Umgebung nicht bewegt sein, also statisch sein, oder andererseits bezüglich der Umgebung bewegt sein, also dynamisch sein. Solche potentiell dynamischen Objekte weisen im Allgemeinen eine geringere Verlässlichkeit bei der Geschwindigkeitsschätzung auf, können allerdings insbesondere dann verwendet werden, wenn keine oder wenige statische Objekte sichtbar sind, z.B. wenn die Sicht durch parkende Autos eingeschränkt ist.The object recognition algorithm is preferably set up to recognize static objects in the environment and more preferably set up to recognize potentially dynamic objects in the environment. Static objects in the environment can be e.g. buildings, traffic signs, traffic lights, trees, road markings, crash barriers and/or the like. These are particularly suitable for motion estimation. Potentially (or possibly) dynamic objects, e.g. vehicles, people and/or the like, can be in the environment. These can on the one hand not be moved in relation to the environment, ie be static, or on the other hand be moved in relation to the environment, ie be dynamic. Such potentially dynamic objects generally have a lower reliability when estimating the speed, but can be used in particular when little or no static objects are visible, e.g. when the view is restricted by parked cars.
Vorzugsweise werden zum Bestimmen der einen oder der mehreren Geschwindigkeitskomponenten zusätzlich Messdaten eines Bewegungssensors verwendet. Durch die Kombination mit von den Kameradaten unabhängigen Messdaten von Bewegungssensoren kann die Genauigkeit des Verfahrens erheblich verbessert werden.Preferably, measurement data from a movement sensor are additionally used to determine the one or more speed components. The accuracy of the method can be significantly improved through the combination with measurement data from motion sensors that is independent of the camera data.
Bevorzugt erfolgt das Bestimmen der einen oder der mehreren Geschwindigkeitskomponenten aus der einen oder den mehreren Relativgeschwindigkeiten mittels einer Regression, in der eine oder mehrere geschätzte Relativgeschwindigkeiten als von der einen oder den mehreren Geschwindigkeitskomponenten abhängige Variablen aufgefasst werden. Dabei wird ein Funktional, das von Differenzen der einen oder der mehreren geschätzten Relativgeschwindigkeiten zu den bestimmten einen oder mehreren Relativgeschwindigkeiten abhängig ist, minimiert. Weiter bevorzugt werden geschätzte Messdaten als von der einen oder den mehreren Geschwindigkeitskomponenten abhängige Variablen aufgefasst, wobei das Funktional zusätzlich von Differenzen der geschätzten Messdaten zu den Messdaten abhängig ist. Eine Regression stellt eine vorteilhafte Möglichkeit dar, mehrere Relativgeschwindigkeiten relativ zu mehreren Objekten und gegebenenfalls Messdaten von Bewegungssensoren miteinander zu kombinieren, um daraus die Eigenbewegung bzw. Geschwindigkeitskomponenten abzuschätzen.The one or more speed components are preferably determined from the one or more relative speeds by means of a regression, in which one or more estimated relative speeds are interpreted as variables dependent on the one or more speed components. A functional that is dependent on differences between the one or more estimated relative speeds and the determined one or more relative speeds is thereby minimized. More preferably, estimated measurement data are understood as variables that are dependent on the one or more speed components, with the functional also being dependent on differences between the estimated measurement data and the measurement data. A regression represents an advantageous possibility of combining several relative speeds relative to several objects and possibly measurement data from motion sensors with one another in order to to estimate the proper motion or velocity components.
Vorzugsweise erfolgt im Funktional eine Gewichtung der Differenzen entsprechend einer Verlässlichkeit, die der Objekterkennungs-Algorithmus einem erkannten Objekt zuweist. Ebenso vorzugsweise kann im Funktional eine Gewichtung der Differenzen entsprechend einer Verlässlichkeit der Messdaten erfolgen. Relativgeschwindigkeiten oder Messdaten, die eine hohe Verlässlichkeit aufweisen (etwa statische Objekte), können hierbei stärker gewichtet werden. Bei der Gewichtung einer bestimmten Differenz wird natürlich jeweils diejenige Verlässlichkeit verwendet, die sich auf die in der Differenz verwendeten Daten (Relativgeschwindigkeit bzw. Messdaten) bezieht.Preferably, the differences are weighted in the functional according to a reliability that the object recognition algorithm assigns to a recognized object. Likewise preferably, the differences can be weighted in the functional according to the reliability of the measurement data. Relative speeds or measurement data that are highly reliable (e.g. static objects) can be weighted more heavily. When weighting a specific difference, of course that reliability is used that relates to the data used in the difference (relative speed or measurement data).
Im erfindungsgemäßen Verfahren zur Positionsbestimmung eines Fahrzeugs werden an aufeinanderfolgenden Zeitpunkten Eigenbewegungsschätzungen des Fahrzeugs gemäß einem erfindungsgemäßen Verfahren zur Eigenbewegungsschätzung durchgeführt, und die bestimmten Geschwindigkeitskomponenten werden über die Zeit integriert, um eine Fahrstrecke des Fahrzeugs zu bestimmen. Da die Eigenbewegungsschätzungen im Allgemeinen zu diskreten Zeitpunkten erfolgen, etwa bedingt durch Zeitpunkte, an denen neue Bilder erfasst werden, und durch die benötigte Rechenzeit zur Auswertung einer Folge von Bildausschnitten, ist die Integration über die Zeit hier typischerweise eine Summation. Mit jedem neuen Summanden ergibt sich eine neue Relativposition zwischen dem letzten Zeitpunkt einer Eigenbewegungsschätzung, der dem neuen Summanden entspricht, und dem ersten Zeitpunkt einer Eigenbewegungsschätzung (erster Summand). Insgesamt wird so eine Folge von Relativposition erhalten, die die Fahrstrecke des Fahrzeugs ausgehend vom ersten Zeitpunkt darstellt. Der Begriff Fahrstrecke (bzw. Positionstrajektorie) bezeichnet entsprechend den Weg oder Pfad, den das Fahrzeug zurücklegt bzw. zurückgelegt hat.In the inventive method for determining the position of a vehicle, the vehicle's own motion estimations are carried out at successive points in time according to an inventive method for own motion estimation, and the determined speed components are integrated over time in order to determine a travel route of the vehicle. Since the self-motion estimates are generally made at discrete points in time, for example due to the points in time at which new images are recorded and due to the computing time required to evaluate a sequence of image sections, the integration over time is typically a summation here. With each new addend, a new relative position results between the last point in time of a proper motion estimation, which corresponds to the new addend, and the first point in time of a proper motion estimate (first addend). Overall, a sequence of relative positions is obtained that represents the driving route of the vehicle starting from the first point in time. The term route (or position trajectory) correspondingly designates the route or path that the vehicle covers or has covered.
Bevorzugt werden durch ein Positionsbestimmungssystem, insbesondere ein globales Positionsbestimmungssystem, bestimmte Positionsdaten unter Verwendung der Fahrstrecke korrigiert. Sind Positionsdaten von einem Positionsbestimmungssystem ungenau, z.B. in einer Stadt, wenn Navigationssatelliten wegen Gebäuden nicht sichtbar sind oder es zu Reflexionen des Signals von Navigationssatelliten kommt, können diese mittels der bestimmten Fahrstrecke korrigiert werden, indem, wenn Positionsdaten zu mehreren aufeinanderfolgenden Positionen vorliegen, diese mit der Fahrstrecke abgeglichen werden, so dass diese Positionen möglichst auf der Fahrstrecke liegen. Beispielsweise indem mittels eines Regressionsverfahrens aus den Positionsdaten die wahrscheinlichste Position bestimmt wird, die auf der Fahrstrecke liegt. Das Positionsbestimmungssystem kann z.B. auf Satellitensignalen von GPS, GLONASS, Galileo und/oder Beidou basieren.Certain position data are preferably corrected by a position determination system, in particular a global position determination system, using the route. If position data from a position determination system is inaccurate, e.g. in a city, if navigation satellites are not visible because of buildings or if the signal from navigation satellites is reflected, these can be corrected using the determined route by, if position data for several consecutive positions are available, these with be compared with the route so that these positions are as close as possible to the route. For example, by using a regression method to determine the most likely position on the route from the position data. The positioning system can be based on satellite signals from GPS, GLONASS, Galileo and/or BeiDou, for example.
Bevorzugt wird die Fahrstrecke mit Wegedaten in einer Karte abgeglichen, um eine Position des Fahrzeugs zu bestimmen. Ist die Position ungefähr bekannt, z.B. bis auf wenige 100 m, und liegt für einen Bereich, in dem sich diese Position befindet, eine Karte mit Wegedaten zu Wegen, auf denen sich das Fahrzeug bewegen kann (z.B. Straßen), vor, kann die Fahrstrecke, die eine Folge von Kurven und geraden Streckenanteilen ist, so in Übereinstimmung mit den durch die Wegedaten beschriebenen Wegen gebracht werden, dass sich das Fahrzeug immer auf einem Weg befindet. Für typische Straßenverkehrsnetze in Städten lässt sich dadurch die Position des Fahrzeugs sehr genau bestimmen.The route is preferably compared with route data on a map in order to determine a position of the vehicle. If the position is approximately known, e.g. to within a few 100 m, and if there is a map with route data on routes on which the vehicle can move (e.g. roads) for an area in which this position is located, the route can be calculated , which is a sequence of curves and straight stretches of road, can be brought into agreement with the paths described by the path data so that the vehicle is always on a path. For typical road traffic networks in cities, the position of the vehicle can be determined very precisely.
Eine erfindungsgemäße Recheneinheit, z.B. ein Steuergerät eines Kraftfahrzeugs, ist, insbesondere programmtechnisch, dazu eingerichtet, ein erfindungsgemäßes Verfahren durchzuführen. Das Steuergerät ist insbesondere eingerichtet, Bilder von der Innenraumkamera und gegebenenfalls von dem Bewegungssensor zu empfangen.A computing unit according to the invention, e.g. a control unit of a motor vehicle, is set up, in particular in terms of programming, to carry out a method according to the invention. In particular, the control device is set up to receive images from the interior camera and possibly from the motion sensor.
Auch die Implementierung eines erfindungsgemäßen Verfahrens in Form eines Computerprogramms oder Computerprogrammprodukts mit Programmcode zur Durchführung aller Verfahrensschritte ist vorteilhaft, da dies besonders geringe Kosten verursacht, insbesondere wenn ein ausführendes Steuergerät noch für weitere Aufgaben genutzt wird und daher ohnehin vorhanden ist. Geeignete Datenträger zur Bereitstellung des Computerprogramms sind insbesondere magnetische, optische und elektrische Speicher, wie z.B. Festplatten, Flash-Speicher, EEPROMs, DVDs u.a.m. Auch ein Download eines Programms über Computernetze (Internet, Intranet usw.) ist möglich.The implementation of a method according to the invention in the form of a computer program or computer program product with program code for carrying out all method steps is advantageous because this causes particularly low costs, especially if an executing control unit is also used for other tasks and is therefore available anyway. Suitable data carriers for providing the computer program are, in particular, magnetic, optical and electrical memories, such as hard drives, flash memories, EEPROMs, DVDs, etc. It is also possible to download a program via computer networks (Internet, intranet, etc.).
Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und der beiliegenden Zeichnung.Further advantages and refinements of the invention result from the description and the attached drawing.
Die Erfindung ist anhand von Ausführungsbeispielen in der Zeichnung schematisch dargestellt und wird im Folgenden unter Bezugnahme auf die Zeichnung beschrieben.The invention is shown schematically in the drawing using exemplary embodiments and is described below with reference to the drawing.
Figurenlistecharacter list
-
1A ,1B zeigen jeweils schematisch das Sichtfeld einer Innenraumkamera in einem Kraftfahrzeug mit Fokus auf die vorderen bzw. auf die hinteren Sitze;1A ,1B each show schematically the field of view of an interior camera in a motor vehicle with a focus on the front and rear seats; -
2 zeigt ein Bild, das von einer Innenraumkamera in einem Kraftfahrzeug mit Fokus auf die vorderen Sitze erfasst wurde; und2 FIG. 12 shows an image captured by an interior camera in a motor vehicle with a focus on the front seats; and -
3 zeigt ein Ablaufdiagramm des Verfahrens zur Eigenbewegungsschätzung und zur Positionsbestimmung eines Fahrzeugs gemäß einer bevorzugten Ausführungsform der Erfindung.3 FIG. 1 shows a flow chart of the method for estimating a vehicle's own motion and for determining its position according to a preferred embodiment of the invention.
Ausführungsform(en) der Erfindungembodiment(s) of the invention
Durch die Sichtfeld-Ausschnitte können Objekte 4, die sich in der Umgebung des Fahrzeugs 2 befinden, durch die Innenraumkameras erfasst werden. In einer Folge von Bildern bzw. in entsprechenden Folgen von Bildausschnitten aus diesen Bildern, die durch die Sichtfeld-Ausschnitte definiert sind, kann die Relativgeschwindigkeit zwischen dem Fahrzeug und den Objekten bestimmt werden und daraus die Eigenbewegung des Fahrzeugs, d.h. die Bewegung des Fahrzeugs relativ zur Umgebung, abgeschätzt werden. Ein besonders brauchbares Ergebnis erhält man, wenn die Objekte oder zumindest ausreichende viele Objekte statisch bezüglich der Umgebung sind.
Die Sichtfeld-Ausschnitte 141, 142, 143, 144, 241, 242 durch Seitenfenster sind insbesondere geeignet, die Geschwindigkeit des Fahrzeugs in Längsrichtung zu bestimmen. Die Sichtfeld-Ausschnitte 145, 243 durch die Heckscheibe sind insbesondere geeignet, eine Quergeschwindigkeit des Fahrzeugs, etwa bei Kurvenfahrt, zu bestimmen.The field of
Um die Sichtfelder und Sichtfeld-Ausschnitte klar erkennbar zu machen, sind diese in den
Innenraumkameras 10, 20 wie in den
In den
In den
In Schritt 100 wird zunächst wenigstens ein Sichtfeld-Ausschnitt, in dem die Innenraumkamera einen Bereich in der Umgebung des Fahrzeugs erfasst, bestimmt bzw. festgelegt. Dabei können z.B. Raumwinkelbereiche bzw. Ausschnitt-Raumwinkelbereiche, die den Sichtfeld-Ausschnitten entsprechen, innerhalb eines Sichtfeld-Raumwinkelbereichs, der dem Sichtfeld der Innenraumkamera entspricht, bestimmt und in geeigneter Weise gespeichert bzw. hinterlegt werden. Dies erfolgt beispielsweise bei Montage der Innenraumkamera im Fahrzeug, kann aber auch beispielsweise für ein bestimmtes Fahrzeugmodell mit integrierter Innenraumkamera bekannt sein. Wird die Kameraposition oder Kameraorientierung im Fahrzeug geändert, muss der wenigstens eine Sichtfeld-Ausschnitt erneut bestimmt werden.In
In Schritt 110 werden zeitlich aufeinanderfolgende Bilder mittels der Innenraumkamera erfasst. Die Bilder werden von der Innenraumkamera aufgenommen und beispielsweise an eine Recheneinheit übertragen, die das Verfahren implementiert. Jedem Bild ist ein Aufnahmezeitpunkt zugeordnet. Typischerweise sind die Aufnahmezeitpunkte regelmäßig voneinander beabstandet, d.h. sie werden mit einer bestimmten Rate aufgenommen, z.B. 25 oder 30 oder 60 Bilder je Sekunde. Schritt 110 erfolgt fortlaufend, so dass fortlaufend aufeinanderfolgende Bilder erfasst werden.In
In Schritt 120 wird wenigstens eine Folge von Bildausschnitten gebildet. Ein Bildausschnitt schließt jeweils einen Bereich eines der Bilder ein, der dem Sichtfeld-Ausschnitt entspricht. Es werden also Bildbereiche aus den Bildern ausgeschnitten, um daraus für jeden Sichtfeld-Ausschnitt eine Folge von Bildausschnitten zu bilden. Die wenigstens eine Folge von Bildausschnitten wird zu wenigstens einem Schätzzeitpunkt gebildet. Jede Folge von Bildausschnitten schließt wenigsten zwei Bilder ein.In
In Schritt 130 erfolgt ein Erkennen eines oder mehrerer Objekte in der Umgebung des Fahrzeugs in der wenigstens einen Folge von Bildausschnitten. Aus der wenigstens einen Folge der Bildausschnitte können eine oder mehrere Relativgeschwindigkeiten des Fahrzeugs relativ zu dem einen oder den mehreren Objekten auf Grundlage der Relativbewegung des einen oder der mehreren Objekte bestimmt werden. Die Relativgeschwindigkeiten können bestimmt werden, da die Aufnahmezeitpunkte bzw. die zeitlichen Abstände der Aufnahmezeitpunkte der Bilder und damit der Bildausschnitte bekannt sind. Für erkannte Objekte wird eine relative Position des Objekts zum Fahrzeug bestimmt, so dass die Bewegungsstrecke (gemessen z.B. in Metern) bzw. der Bewegungsvektor zwischen aufeinanderfolgenden Bildausschnitten bestimmt werden kann. Die Relativgeschwindigkeiten können dann als Quotienten aus Bewegungsvektoren und zeitlichen Abständen erhalten werden.In
Die relative Position des Objekts zum Fahrzeug kann bestimmt werden aus der relativen Position des Objekts zur Innenraumkamera und der relativen Positionierung und Orientierung der Innenraumkamera zu einem Fahrzeugkoordinatensystem. Die relative Position des Objekts zur Innenraumkamera kann wiederum bestimmt werden aus einerseits der Winkelposition (z.B. Azimuthwinkel und Höhenwinkel) innerhalb des Sichtfelds einer Innenraumkamera (dies entspricht der Pixel-Position des Objekts im aufgenommenen Bild) und andererseits der Entfernung des Objekts von der Innenraumkamera. Die Entfernung kann beispielsweise aus Eigenschaften der Innenraumkamera (z.B. deren Fokussiersystem) bestimmt oder zumindest geschätzt werden. Insbesondere werden physikalischen Abbildungsgesetzte berücksichtigt (beispielsweise definiert durch die extrinsische und intrinsische Kalibrierung der Kamera und Optik). Zum Erkennen von Objekten kann ein geeigneter Bilderkennungs-Algorithmus verwendet werden, so dass erkannte Objekte in verschiedenen Bildern einander zugeordnet werden können. Wenn die absoluten Abmessungen eines (vorzugsweise statischen) erkannten Objekts bekannt sind, z.B. eines Verkehrsschilds, oder ungefähr bekannt sind, z.B. eines Autos oder eines Autoreifens, kann die Entfernung zu diesem auch anhand der im Bild erkannten relativen Abmessungen bestimmt bzw. geschätzt werden. Falls mehrere Innenraumkameras mit überlappenden Sichtfeldern vorgesehen sind, ist auch eine Triangulierung von Objekten denkbar.The position of the object relative to the vehicle can be determined from the position of the object relative to the interior camera and the relative positioning and orientation of the interior camera to a vehicle coordinate system. The relative position of the object to the indoor camera can in turn be determined from the angular position (e.g. azimuth angle and elevation angle) within the field of view of an indoor camera (this corresponds to the pixel position of the object in the recorded image) and the distance of the object from the indoor camera. The distance can, for example, be determined or at least estimated from properties of the interior camera (e.g. its focusing system). In particular, physical imaging laws are taken into account (e.g. defined by the extrinsic and intrinsic calibration of the camera and optics). A suitable image recognition algorithm can be used to recognize objects, so that recognized objects in different images can be assigned to one another. If the absolute dimensions of a (preferably static) detected object are known, e.g. a traffic sign, or approximately known, e.g. a car or a car tire, the distance to this object can also be determined or estimated using the relative dimensions detected in the image. If several interior cameras are provided with overlapping fields of view, a triangulation of objects is also conceivable.
In Schritt 140 werden eine oder mehrere Geschwindigkeitskomponenten des Fahrzeugs relativ zur Umgebung basierend auf der einen oder den mehreren Relativgeschwindigkeiten bestimmt. Dies ist möglich, da zwischen den Relativgeschwindigkeiten und den Geschwindigkeitskomponenten ein Zusammenhang besteht, der durch geometrische Beziehungen bedingt ist. In Schritt 140 können gegebenenfalls Messdaten eines Bewegungssensors berücksichtigt werden.In
Die so erhaltenen Geschwindigkeitskomponenten beziehen sich beispielsweise auf einen Zeitpunkt (Schätzzeitpunkt). Sollen Geschwindigkeitskomponenten für mehrere Zeitpunkte bestimmt werden, insbesondere dann, wenn neue Bilder erfasst werden, kann wieder zu Schritt 120 gesprungen werden (Pfeil 145) und eine weitere wenigstens eine Folge von Bildausschnitten aus den in Schritt 110 fortlaufend erfassten aufeinanderfolgenden Bildern gebildet werden, die gemäß der Schritte 130 und 140 verarbeitet wird, um für einen weiteren Zeitpunkt eine oder mehrere Geschwindigkeitskomponenten zu bestimmen.The speed components obtained in this way relate, for example, to a point in time (estimated point in time). If speed components are to be determined for a plurality of points in time, in particular when new images are captured, one can jump back to step 120 (arrow 145) and at least one further sequence of image excerpts from the successive images continuously captured in
Die so erhaltenen (eine oder mehreren) Geschwindigkeitskomponenten an verschiedenen Zeitpunkten (Schätzzeitpunkten), d.h. die sich auf verschiedene Zeitpunkte beziehen, können im bevorzugten Schritt 150 über die Zeit integriert werden. Insbesondere kann eine Summe über die Produkte der Geschwindigkeitskomponenten mit den Zeitabständen zwischen Zeitpunkten berechnet werden. Als Zeitabstand kann beispielsweise, wenn sich eine Geschwindigkeitskomponente auf einen bestimmten Zeitpunkt bezieht, der Zeitabstand zum nachfolgenden Zeitpunkt oder zum vorhergehenden Zeitpunkt oder ein Mittelwert davon verwendet werden. Bei bevorzugt regelmäßig beabstandeten Zeitpunkten (Schätzzeitpunkten) ist der Zeitabstand immer gleich, d.h. durch den Abstand der regelmäßig beabstandeten Zeitpunkte gegeben.The (one or more) velocity components obtained in this way at different points in time (estimated points in time), i.e. which relate to different points in time, can be integrated over time in
Ausgehend von einem ersten Zeitpunkt wird auf diese Weise mit jedem neuen Zeitpunkt, insbesondere mit jedem neuen Summanden, eine neue Relativposition des Fahrzeugs zwischen dem ersten und dem neuen Zeitpunkt bestimmt. Aus der Folge dieser Relativpositionen kann im bevorzugten Schritt 160 die zurückgelegte Fahrstrecke des Fahrzeugs bestimmt werden.In this way, starting from a first point in time, a new relative position of the vehicle between the first and the new point in time is determined with each new point in time, in particular with each new summand. From the sequence of these relative positions, the distance traveled by the vehicle can be determined in
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021208144.4A DE102021208144A1 (en) | 2021-07-28 | 2021-07-28 | Method for self-motion estimation and position determination of a vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021208144.4A DE102021208144A1 (en) | 2021-07-28 | 2021-07-28 | Method for self-motion estimation and position determination of a vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021208144A1 true DE102021208144A1 (en) | 2023-02-02 |
Family
ID=84890049
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021208144.4A Pending DE102021208144A1 (en) | 2021-07-28 | 2021-07-28 | Method for self-motion estimation and position determination of a vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021208144A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10252323A1 (en) | 2002-11-11 | 2004-05-19 | Ibeo Automobile Sensor Gmbh | Method for determining an own movement of a vehicle |
DE102005009814A1 (en) | 2004-03-09 | 2005-09-29 | Denso Corp., Kariya | Vehicle condition detection system and method |
DE102009019399A1 (en) | 2009-04-29 | 2010-11-11 | Audi Ag | Method for automatically determining at least one target variable describing the change in the position of a motor vehicle |
DE102011054379A1 (en) | 2011-10-11 | 2013-04-11 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Method for determining position information of mobile vehicle e.g. unmanned aircraft, involves calculating relative movement of vehicle based on determined feature movement and self-determined relative movement information |
-
2021
- 2021-07-28 DE DE102021208144.4A patent/DE102021208144A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10252323A1 (en) | 2002-11-11 | 2004-05-19 | Ibeo Automobile Sensor Gmbh | Method for determining an own movement of a vehicle |
DE102005009814A1 (en) | 2004-03-09 | 2005-09-29 | Denso Corp., Kariya | Vehicle condition detection system and method |
DE102009019399A1 (en) | 2009-04-29 | 2010-11-11 | Audi Ag | Method for automatically determining at least one target variable describing the change in the position of a motor vehicle |
DE102011054379A1 (en) | 2011-10-11 | 2013-04-11 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Method for determining position information of mobile vehicle e.g. unmanned aircraft, involves calculating relative movement of vehicle based on determined feature movement and self-determined relative movement information |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014223363B4 (en) | Method and device for localizing a motor vehicle in a fixed reference map | |
DE102016114535B4 (en) | Route determination for automated vehicles | |
DE102010005293B4 (en) | System and method for tracking path estimation using a sensor combination | |
DE102009006113B4 (en) | Device and method for sensor fusion with dynamic objects | |
DE19749086C1 (en) | Device for determining data indicating the course of the lane | |
EP1531343B1 (en) | Method for tracking objects | |
EP1298454A2 (en) | Method for recognising and tracking objects | |
DE102016117710A1 (en) | RADAR VIEW FUSION FOR ASSESSING THE SPEED OF A TARGET OBJECT | |
EP2200881B1 (en) | Method for estimating the relative movement of video objects and driver assistance system for motor vehicles | |
EP2033165B1 (en) | Method for picking up a traffic space | |
DE102008041679A1 (en) | Method for environment recognition for navigation system in car, involves storing data of object or feature in storage, and classifying object or feature by comparison of data after visual inspection of object or feature | |
DE102010005290A1 (en) | Vehicle controlling method for vehicle operator i.e. driver, involves associating tracked objects based on dissimilarity measure, and utilizing associated objects in collision preparation system to control operation of vehicle | |
DE102021103149A1 (en) | METHOD AND DEVICE FOR DETERMINING THE OPTIMAL CROSSING LANE IN AN ASSISTED DRIVING SYSTEM | |
WO2018104191A1 (en) | Automated open space identification by means of difference analysis for vehicles | |
DE102016003261A1 (en) | Method for self-localization of a vehicle in a vehicle environment | |
DE102011105074A1 (en) | Method for determining visual range for vehicle, involves determining surrounding of vehicle by camera, where contrast dimensions are determined for object depicted in images, where visual range is determined from contrast dimensions | |
DE102018121008A1 (en) | CROSS TRAFFIC RECORDING USING CAMERAS | |
DE102015207026A1 (en) | Method and device for controlling a detection system for detecting an environment of a vehicle | |
DE102018204451A1 (en) | Method and device for auto-calibration of a vehicle camera system | |
DE102006039104A1 (en) | Method for ranging or detection of stationary objects in surroundings of road vehicle using graphic data, involves testing object hypothesis such as stationary object against object hypothesis such as flat road | |
DE102006044615A1 (en) | Image capturing device calibrating method for vehicle, involves locating objects in vehicle surrounding based on image information detected by image capturing device, and evaluating geometrical relations of objects | |
DE102019109491A1 (en) | DATA PROCESSING DEVICE, MONITORING SYSTEM, WECKSYSTEM, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM | |
DE102020113418B4 (en) | AUTONOMOUS DRIVING DEVICE AND METHOD | |
DE102007024641A1 (en) | Vehicle surrounding representing method for tracing of e.g. animal, involves determining measuring range based on object hypotheses, commonly analyzing sensor signal flow in ranges and processing flows in unadjusted manner | |
DE102017205245A1 (en) | Free range fusion for driver assistance systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |