DE10346573B4 - Environment detection with compensation of self-movement for safety-critical applications - Google Patents
Environment detection with compensation of self-movement for safety-critical applications Download PDFInfo
- Publication number
- DE10346573B4 DE10346573B4 DE10346573.1A DE10346573A DE10346573B4 DE 10346573 B4 DE10346573 B4 DE 10346573B4 DE 10346573 A DE10346573 A DE 10346573A DE 10346573 B4 DE10346573 B4 DE 10346573B4
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- movement
- objects
- sensors
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 20
- 230000033001 locomotion Effects 0.000 claims abstract description 50
- 238000000034 method Methods 0.000 claims abstract description 23
- 238000012937 correction Methods 0.000 claims abstract description 11
- 230000009466 transformation Effects 0.000 claims abstract description 9
- 238000005096 rolling process Methods 0.000 claims abstract description 5
- 238000004364 calculation method Methods 0.000 claims abstract description 4
- 238000011156 evaluation Methods 0.000 claims abstract description 4
- 238000013459 approach Methods 0.000 claims abstract 2
- 230000001960 triggered effect Effects 0.000 claims abstract 2
- 230000001133 acceleration Effects 0.000 claims description 12
- 230000000977 initiatory effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/04—Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
- B60W10/06—Conjoint control of vehicle sub-units of different type or different function including control of propulsion units including control of combustion engines
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
Landscapes
- Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
- Automotive Seat Belt Assembly (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Verfahren zur Umfelderfassung eines Fahrzeugs (30) in aktuellen Fahrsituationen im Verkehr, bei dem aus dem Umfeld bereits erfasste Objekte (31, 33, 34, 36) nachverfolgt werden, und das Nachverfolgen dieser Objekte (31, 33, 34, 36) durch eine korrigierte Koordinatentransformation dieser Objekte vereinfacht wird, mit den Schritten:a) Erfassen von Trägheitsmessgrößen mit am Fahrzeug (30) angebrachten Trägheitssensoren (3), die die Feststellung wenigstens einer der folgenden aktuellen Bewegungsgrößen der Eigenbewegung des Fahrzeugs erlauben:a1) Nickbewegung,a2) Gierbewegung,a3) Rollbewegung,b) Einbeziehen (23) von Korrekturdaten, die sich aus einer Auswertung der Trägheitsmessgrößen ergeben, in Berechnungen beim Nachverfolgen der bereits erfassten Objekte (31, 33, 34, 36), undc) Weiterführen der Kontrolle von bereits erfassten Objekten (31, 33, 34, 36), die während einer vorbestimmten Zeitspanne aus dem Erfassungsbereich wenigstens eines Sensors verschwunden sind, wobei Sicherheitsfunktionen aufgrund der Annäherung des Fahrzeugs (30) an ein momentan nicht im Erfassungsbereich eines Sensors liegenden Objekts (34, 31) ausgelöst werden, wenn eine Prädizierung (38, 35) des entsprechenden Objektzustandes unter Berücksichtigung der Eigenbewegung des Fahrzeugs (30) eine Kollision wahrscheinlich erscheinen lässt.A method for detecting the surroundings of a vehicle (30) in current driving situations in traffic, in which objects (31, 33, 34, 36) already detected from the surroundings are tracked, and the tracking of these objects (31, 33, 34, 36) by a Corrected coordinate transformation of these objects is simplified, with the steps: a) Acquisition of inertia measured variables with inertia sensors (3) attached to the vehicle (30), which allow the determination of at least one of the following current movement variables of the vehicle's own movement: a1) pitching movement, a2) yawing movement , a3) rolling movement, b) including (23) correction data resulting from an evaluation of the inertia measurement variables in calculations when tracking the objects (31, 33, 34, 36) that have already been detected, and c) continuing the control of objects that have already been detected (31, 33, 34, 36), which have disappeared from the detection range of at least one sensor during a predetermined period of time, whereby safety function nen are triggered due to the approach of the vehicle (30) to an object (34, 31) that is currently not in the detection range of a sensor if a prediction (38, 35) of the corresponding object state, taking into account the vehicle's own movement (30), is likely to result in a collision makes appear.
Description
Stand der TechnikState of the art
Die vorliegende Erfindung betrifft das Gebiet der Telematik und insbesondere ein Fahrerassistenzsystem mit Erfassung des Fahrzeugumfeldes, wobei ein bereits erfasstes Objekt nachverfolgt wird.The present invention relates to the field of telematics and in particular to a driver assistance system with detection of the vehicle surroundings, an object that has already been detected being tracked.
Derzeit werden verstärkt Verfahren zur Unterstützung des Fahrers eines Kraftfahrzeugs entwickelt. Eine intensive Forschungstätigkeit besteht insbesondere im Bereich der sensorgestützten Umfelderfassung. Dabei werden im Umfeld eines Fahrzeugs Objekte wie z.B. Bäume, Fußgänger, Fahrzeuge und Fahrbahnmarkierungen als solche erkannt und die Ergebnisse zur Unterstützung des Fahrers verwendet. Zur Umfelderfassung werden Sensoren wie beispielsweise Videokameras, Lidar, Entfernungsbildkameras, Infrarotkameras und Radar verwendet. Als besonders problematisch stellt sich die Nachverfolgung bzw. Wiedererkennung von bereits erfassten Objekten heraus. Zum einen weisen die Objekte selbst eine Eigenbewegung auf, so dass sich im Laufe der Zeit ihre eigene Position verändert, zum anderen muss auch die Bewegung des sensortragenden Fahrzeugs berücksichtigt werden. Methods for supporting the driver of a motor vehicle are currently being increasingly developed. There is intensive research activity in particular in the area of sensor-based environment detection. Objects such as trees, pedestrians, vehicles and lane markings are recognized as such in the vicinity of a vehicle and the results are used to support the driver. Sensors such as video cameras, lidar, distance cameras, infrared cameras and radar are used to detect the surroundings. The tracking or recognition of objects that have already been recorded turns out to be particularly problematic. On the one hand, the objects themselves have their own movement, so that their own position changes over time; on the other hand, the movement of the sensor-carrying vehicle must also be taken into account.
Dieses Wiederfinden bzw. Verfolgen von bereits detektierten Objekten ist wichtig, um zu verlässlichen Aussagen über deren Existenz, Position und Bewegung zu gelangen. So wächst die Sicherheit über die Existenz mit der Anzahl der Beobachtungen, denn es ist wahrscheinlich, dass real existierende Objekte in mehreren Messungen bestätigt werden können, während es unwahrscheinlich ist, dass durch Messfehler hervorgerufene „Geisterobjekte“ über mehrere Messungen bestehen bleiben.This finding or tracking of objects that have already been detected is important in order to obtain reliable information about their existence, position and movement. The certainty of existence increases with the number of observations, because it is likely that real objects can be confirmed in several measurements, while it is unlikely that "ghost objects" caused by measurement errors will persist over several measurements.
Außerdem wird die Bestimmung von Position und Existenz in der Genauigkeit verbessert oder sogar erst ermöglicht, wenn für Objekte jeweils mehrere Messungen vorliegen.In addition, the accuracy of the determination of position and existence is improved or even only made possible if several measurements are available for each object.
In den derzeit bekannten Verfahren zur Umfelderfassung werden zur Einbeziehung der Eigenbewegungen des Fahrzeugs Daten von Raddrehzahlsensoren und Lenkwinkelsensoren benutzt.In the currently known methods for detecting the surroundings, data from wheel speed sensors and steering angle sensors are used to include the vehicle's own movements.
In dem in der deutschen Patentanmeldungsschrift
Raddrehzahlsensoren und Lenkwinkelsensoren sind jedoch für extremere Fahrsituationen ungeeignet. So wird bei einer Vollbremsung mit blockierenden Reifen ein völlig falscher Beschleunigungswert gemessen. Ähnliches gilt beim Durchdrehen der Reifen auf Glatteis. Des Weiteren ist ein Lenkwinkelsensor, wenn das Fahrzeug ins Schleudern gerät, unbrauchbar.However, wheel speed sensors and steering angle sensors are unsuitable for more extreme driving situations. In the event of a full braking with locking tires, a completely wrong acceleration value is measured. The same applies when the tires spin on black ice. Furthermore, a steering angle sensor cannot be used if the vehicle starts to skid.
Die verfolgten Objekte gehen bei solchen Situationen dem System verloren, weil sie sich nicht in dem Sensorbereich befinden, in dem die automatische Umfelderfassung sie vermutet. Der ganze Sensorbereich muss danach neu nach den Objekten abgesucht werden, was erheblichen Rechenaufwand und damit in Extremsituationen kostbare Zeit erfordert.In such situations, the tracked objects are lost to the system because they are not in the sensor area in which the automatic environment detection assumes them. The entire sensor area must then be searched again for the objects, which requires considerable computing effort and thus valuable time in extreme situations.
Diese Nachteile der bekannten Verfahren führen insbesondere bei extremen Fahrsituationen einschließlich von Unfallsituationen zu falschen oder zu gar keinen Ergebnissen. Dabei ist gerade in solchen Fällen eine Unterstützung des Fahrers aufgrund korrekter und schneller Umfelderfassung besonders sinnvoll. Der Fahrer kann oftmals nicht mehr schnell genug reagieren, oder er handelt stressbedingt falsch. Auch können ihm wichtige Informationen aus dem Umfeld des Fahrzeugs fehlen.These disadvantages of the known methods lead to incorrect results or no results at all, particularly in extreme driving situations, including accident situations. In such cases, it is particularly useful to support the driver due to the correct and quick detection of the surroundings. The driver can often no longer react quickly enough or he is acting incorrectly due to stress. Important information from the area around the vehicle can also be missing.
Aus der
Aus der
Aus der
Vorteile der ErfindungAdvantages of the invention
Im Folgenden wird auf die Patentansprüche Bezug genommen.In the following, reference is made to the claims.
Mit den Maßnahmen der unabhängigen Ansprüche wird ein Verfahren bzw. System geschaffen, das durch die erfindungsgemäße Kombination der Fahrzeugumfeldsensorik mit Trägheitssensorik, deren Signale zur Kompensation der Eigenbewegung des sensortragenden Fahrzeugs verwendet werden, in vorteilhafter Weise insbesondere in extremen Verkehrsituationen eine funktionstüchtige Umfelderfassung gewährleistet. Ein Objekt kann somit auch in außergewöhnlichen Situationen zuverlässig bei der Umfelderfassung weiterverfolgt werden. Unter Trägheitssensoren werden dabei Sensoren verstanden, die Trägheitskräfte aufgrund der damit verbundenen Beschleunigungen erfassen, wie zum Beispiel der Sensor mit der Produktbezeichnung DRS-MM1.1, wie er von der Anmelderin selbst vertrieben wird.With the measures of the independent claims, a method and system is created which, through the inventive combination of the vehicle environment sensor system with inertia sensor system, whose signals are used to compensate for the movement of the sensor-carrying vehicle, advantageously ensures a functional environment detection, especially in extreme traffic situations. An object can therefore be reliably tracked further in the context of the detection of the surroundings even in unusual situations. Inertial sensors are understood to be sensors that detect inertial forces due to the associated accelerations, such as the sensor with the product designation DRS-MM1.1, as sold by the applicant himself.
Zu den mit Trägheitssensoren messbaren Trägheitsmessgrößen gehören beispielsweise die Längsbeschleunigung z.B. durch Bremsung oder Vorwärtsbeschleunigung, die Querbeschleunigung z.B. bei Kurvenfahrt, die Auf-/Abwärtsbeschleunigung sowie insbesondere Nickbewegungen, Gierbewegungen und Rollbewegungen. Die erfindungsgemäße Möglichkeit einer so umfangreichen Erfassung der Bewegung eines Fahrzeugs und die Verwendung der daraus gewonnenen Korrekturdaten in der Berechnung beim Nachverfolgen der einmal erfassten Objekte verbessert die Qualität der Nachverfolgung des Objekts erheblich.The inertia measurements that can be measured with inertia sensors include, for example, longitudinal acceleration, e.g. through braking or forward acceleration, lateral acceleration, e.g. when cornering, up / down acceleration and, in particular, nodding movements, yawing movements and rolling movements. The possibility according to the invention of such a comprehensive detection of the movement of a vehicle and the use of the correction data obtained therefrom in the calculation when tracking the objects once detected improves the quality of the tracking of the object considerably.
Ein vorteilhafter zusätzlicher Schritt zum erfindungsgemäßen Verfahren ist die Weiterführung der Kontrolle von bereits erfassten Objekten, die während einer vorbestimmten Zeitspanne aus dem Erfassungsbereich wenigstens eines Sensors verschwunden sind. Dadurch liegen für nicht mehr beobachtbare Objekte, die aus dem Erfassungsbereich verschwunden oder von anderen Objekten überdeckt sind, immer noch prädizierte Objektzustände vor, auf Grund derer Sicherheitsfunktionen aktiviert werden können, wenn die Prädizierung unter Berücksichtigung der Eigenbewegung des Fahrzeugs eine Kollision mit dem Objekt wahrscheinlich erscheinen lässt.An advantageous additional step for the method according to the invention is the continuation of the control of objects that have already been detected, which have disappeared from the detection area of at least one sensor during a predetermined period of time. This means that predicted object states are still available for objects that can no longer be observed and that have disappeared from the detection area or are covered by other objects, on the basis of which safety functions can be activated if the prediction, taking into account the vehicle's own movement, appears likely to collide with the object leaves.
In den Unteransprüchen sind vorteilhafte Ausgestaltungen, Weiterbildungen und Verbesserungen des jeweiligen Gegenstandes der Erfindung angegeben.Advantageous refinements, developments and improvements of the respective subject matter of the invention are specified in the subclaims.
Vorzugsweise werden Drehratensensoren und/oder Beschleunigungssensoren als Trägheitssensoren verwendet. Damit ist es möglich, die Eigenbewegung so genau und vollständig zu erfassen, wie es für das erfindungsgemäße Verfahren erforderlich ist, um die störenden Einflüsse der Eigenbewegung auf die Verfolgung der Objekte im Umfeld des sensortragenden Fahrzeugs eliminieren zu können.Yaw rate sensors and / or acceleration sensors are preferably used as inertia sensors. This makes it possible to record the intrinsic movement as precisely and completely as is required for the method according to the invention in order to be able to eliminate the disruptive influences of the intrinsic movement on the tracking of the objects in the vicinity of the sensor-carrying vehicle.
Mit einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens, bei dem ein Objektzustand aus Sicht des sensortragenden Fahrzeugs unter Einbeziehung der Korrekturdaten prädiziert wird, kann der Objektzustand insbesondere nach Position und Bewegung zuverlässig und genau prädiziert und dadurch besser weiterverfolgt werden. Dabei werden entweder die von den Trägheitssensoren erfassten Korrekturdaten zur Kompensation der Eigenbewegung auf den prädizierten Objektzustand angewendet oder die Kompensation der Eigenbewegung des Fahrzeugs erfolgt direkt auf die Sensordatenerfassung hin.With an advantageous further development of the method according to the invention, in which an object state is predicted from the point of view of the sensor-carrying vehicle, taking the correction data into account, the object state can be predicted reliably and precisely, in particular according to position and movement, and thus better tracked. Either the correction data recorded by the inertia sensors to compensate for the intrinsic movement are applied to the predicted object state, or the compensation for the intrinsic motion of the vehicle is carried out directly on the basis of the sensor data acquisition.
Durch die zuverlässige und genaue Prädizierung eines Objektzustandes braucht bei einer späteren Umfeldmessung nur ein engerer Bereich, in dem das Objekt nach der Vorhersage vermutet wird, abgesucht zu werden, um das Objekt dort wiederzuerkennen. Damit wir Rechenaufwand und Zeit erspart.Due to the reliable and precise prediction of an object state, only a narrower area, in which the object is suspected according to the prediction, needs to be searched for a later measurement of the surroundings in order to recognize the object there again. So that we save computational effort and time.
Eine zusätzliche, vorteilhafte Weiterbildung des erfindungsgemäßen Verfahrens stellt der weitere Schritt des Bewertens der aktuellen Fahrsituation zum Zwecke des Einleitens situationsangepasster Maßnahmen dar. Zu diesen zählt insbesondere das Auslösen von Sicherheitsfunktionen des Fahrzeugs. Eine vorteilhafte Ausgestaltung dieser Funktionen ist das automatische Eingreifen in die Fahrdynamik des Fahrzeugs durch Betätigung vorbestimmter Aktuatoren, wie beispielsweise Bremsen, Lenken, Gas geben, Hupen oder Lichthupe betätigen, wenn sich aus der Bewertung der Situation ergibt, dass sich ohne ein Eingreifen ein Unfall mit großer, vorgegebener Wahrscheinlichkeit ereignen würde. Mit diesen Maßnahmen kann ein Beitrag dazu geschaffen werden, dass Unfälle vermieden werden.An additional, advantageous development of the method according to the invention is the further step of evaluating the current driving situation for the purpose of initiating measures adapted to the situation. These include, in particular, the triggering of safety functions of the vehicle. An advantageous embodiment of these functions is the automatic intervention in the driving dynamics of the vehicle by actuating predetermined actuators, such as braking, steering, accelerating, horn or headlight flasher, if the assessment of the situation shows that an accident occurs without intervention large, predetermined probability would occur. These measures can help ensure that accidents are avoided.
Eine besonders bevorzugte Variante des erfindungsgemäßen Systems ist die Verwendung eines Steuergerätes mit den oben genannten Funktionen mit einer Schnittstelle zu Trägheitssensoren, die auch von anderen, den Fahrer unterstützenden Funktionen im Fahrzeug benutzt werden, da dann die Trägheitssensoren und deren Daten mehrfach verwendet werden. So werden Trägheitssensoren beispielsweise ebenfalls in der Fahrdynamikregelung (ESP) und bei der Scheinwerfersteuerung eingesetzt.A particularly preferred variant of the system according to the invention is the use of a control unit with the above functions with an interface to inertia sensors that are also used by other functions in the vehicle that support the driver, since the inertia sensors and their data are then used multiple times. For example, inertia sensors are also used in vehicle dynamics control (ESP) and headlight control.
Zeichnungendrawings
Anhand der Zeichnungen werden Ausführungsbeispiele der Erfindung erläutert.Exemplary embodiments of the invention are explained with the aid of the drawings.
Es zeigen
-
1 eine Blockdarstellung einer Ausgestaltung des erfindungsgemäßen Verfahrens zur Umfelderfassung eines Fahrzeugs; -
2 eine Blockdarstellung einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens zur Umfelderfassung eines Fahrzeugs; -
3 zwei aus der Vogelperspektive skizzierte, zu aufeinander folgenden Zeitpunkten t1 (links) und t2 (rechts) beispielhaft erfasste Verkehrsituationen mit einem Fahrzeug, das eine Ausgestaltung des erfindungsgemäßen Systems enthält; -
4 die zwei zu aufeinander folgenden Zeitpunkten t1 und t2 gemäß3 erfassten Verkehrssituationen skizziert aus Sicht eines Videosensors des Fahrzeugs; -
5 die Prädiktion der Positionen von im Zeitpunkt t1 im Sensorbild (linkes Bild) erfassten Objekten auf das skizzierte Sensorbild im Zeitpunkt t2 (rechtes Bild) ohne Kompensation der Eigenbewegung des Fahrzeugs; -
6 eine Skizze mit Sensorbild zum Zeitpunkt t2 und mit Prädiktion der Position von früher beobachteten Objekten nach einer Variante der erfindungsgemäßen Kompensation der Eigenbewegung des Fahrzeugs; -
7 eine Skizze mit Sensorbild zum Zeitpunkt t2 mit Prädiktion der Position von früher beobachteten Objekten nach einer weiteren Variante der erfindungsgemäßen Kompensation der Eigenbewegung des Fahrzeugs; und -
8 eine Blockdarstellung einer Ausgestaltung eines erfindungsgemäßen Systems mit Schnittstelle zu von anderen Systemen des Fahrzeugs genutzten Trägheitssensoren.
-
1 a block diagram of an embodiment of the method according to the invention for detecting the surroundings of a vehicle; -
2 a block diagram of a further embodiment of the method according to the invention for detecting the surroundings of a vehicle; -
3 two traffic situations with a vehicle, which contains an embodiment of the system according to the invention, sketched from a bird's eye view and recorded by way of example at successive times t1 (left) and t2 (right); -
4th the two at successive times t1 and t2 according to3 detected traffic situations outlined from the point of view of a video sensor of the vehicle; -
5 the prediction of the positions of objects detected at time t1 in the sensor image (left image) on the sketched sensor image at time t2 (right image) without compensation for the vehicle's own movement; -
6th a sketch with a sensor image at time t2 and with prediction of the position of previously observed objects according to a variant of the inventive compensation for the vehicle's own movement; -
7th a sketch with a sensor image at time t2 with prediction of the position of previously observed objects according to a further variant of the inventive compensation for the vehicle's own movement; and -
8th a block diagram of an embodiment of a system according to the invention with an interface to inertial sensors used by other systems of the vehicle.
Beschreibung von AusführungsbeispielenDescription of exemplary embodiments
In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsgleiche Komponenten.In the figures, the same reference symbols denote the same or functionally identical components.
Das Wiederfinden wird dadurch unterstützt bzw. ermöglicht, dass auf der Basis von mindestens einem um den Zeitschritt „T“
Die zu zwei aufeinanderfolgenden Zeitpunkten gehörenden Koordinatensysteme z. B. die mit dem sensortragenden Fahrzeug starr verbundenen Koordinatensysteme, werden durch Kompensation
Zur Bestimmung aller sechs Parameter, sind drei Drehratensensoren und drei Beschleunigungssensoren vorhanden. Falls nur weniger Trägheitssensoren
Das Ergebnis der Objektverfolgung ist ein aktueller Objektzustand
Für die erfindungsgemäße Kompensation
Die folgenden Erläuterungen werden nun anhand des beispielhaft ausgewählten Sensors „Videokamera“ gegeben. Der Fachmann wird jedoch verstehen, dass auch andere Sensoren, wie die bereits eingangs erwähnten Lidar, Entfernungsbildkameras, Infrarotkameras und Radar verwendet werden, und systematisch ähnlich Ergebnisse liefern können.The following explanations will now be given using the “video camera” sensor selected as an example. However, the person skilled in the art will understand that other sensors, such as the lidar, range image cameras, infrared cameras and radar already mentioned at the outset, can also be used and can systematically provide similar results.
Bei der in
Bezogen auf Bilddaten bedeutet dies beispielsweise für die Kompensation „rückwärts“, dass die zum späteren Zeitpunkt t2 aufgenommenen Bilddaten so umgerechnet werden, als ob sie aus der Kameraperspektive vom früheren Zeitpunkt t1 aufgenommen worden wären.In relation to image data, this means for the “backwards” compensation, for example, that the image data recorded at the later point in time t 2 are converted as if they had been recorded from the camera perspective from the earlier point in time t1.
Ebenso ist es möglich „vorwärts“ zu kompensieren, also die zum Zeitpunkt t1 aufgenommenen Bilddaten so umzurechnen, als ob sie aus der Kameraperspektive vom Zeitpunkt t2 aufgenommen worden wären. Bei der Kompensation vorwärts liegen Schätzungen der Objektzustände, wie die Entfernungen der Objekte von der Kamera und Objektabmessungen vor, die für eine genauere Kompensation ausgenutzt werden können.It is also possible to compensate “forwards”, that is to say to convert the image data recorded at time t1 as if they had been recorded from the camera perspective at time t2. With the compensation forwards, there are estimates of the object states, such as the distances of the objects from the camera and object dimensions, which can be used for a more precise compensation.
Bei der Kompensation rückwärts kann auf prädizierte Objektzustände zurückgegriffen werden. Diese Ausnutzung der Objektzustände ist durch gestrichelte Linien im Blockdiagramm dargestellt.When compensating backwards, predicted object states can be used. This utilization of the object states is shown by dashed lines in the block diagram.
Der Block
Mit Bezug zu
Rechts ist die Situation zum späteren Zeitpunkt t2\ dargestellt. Beide Fahrzeuge
Bei Anwendung dieser für den Zeitpunkt t2 durchgeführten Prädiktion auf das zugehörige Bild des Videosensors vom Zeitpunkt t2, ohne dabei die Kompensation der Eigenbewegung durchzuführen, zeigt das Ergebnis in
Die Prädiktion des Zustands
In
Für nicht mehr beobachtbare Objekte, die aus dem Erfassungsbereich verschwunden oder sogar von anderen Objekten überdeckt worden sind, liegen immer noch prädizierte Objektzustände
In
Obwohl die vorliegende Erfindung anhand bevorzugter Ausführungsbeispiele vorstehend beschrieben wurde, ist sie darauf nicht beschränkt, sondern auf vielfältige Weise modifizierbar.Although the present invention has been described above on the basis of preferred exemplary embodiments, it is not restricted thereto, but rather can be modified in many ways.
Die genannten Fahrstreifenbegrenzungen
Schließlich können die Merkmale der Unteransprüche im Wesentlichen frei miteinander und nicht durch die in den Ansprüchen vorliegende Reihenfolge miteinander kombiniert werden, sofern sie unabhängig voneinander sind.Finally, the features of the subclaims can essentially be freely combined with one another and not by the order present in the claims, provided they are independent of one another.
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10346573.1A DE10346573B4 (en) | 2003-10-07 | 2003-10-07 | Environment detection with compensation of self-movement for safety-critical applications |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10346573.1A DE10346573B4 (en) | 2003-10-07 | 2003-10-07 | Environment detection with compensation of self-movement for safety-critical applications |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10346573A1 DE10346573A1 (en) | 2005-05-04 |
DE10346573B4 true DE10346573B4 (en) | 2021-07-29 |
Family
ID=34399339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10346573.1A Expired - Fee Related DE10346573B4 (en) | 2003-10-07 | 2003-10-07 | Environment detection with compensation of self-movement for safety-critical applications |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10346573B4 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005038603A1 (en) | 2005-08-16 | 2007-02-22 | Robert Bosch Gmbh | Method and device for tracking an object in an image sequence |
DE102006046903A1 (en) * | 2006-10-04 | 2008-04-10 | Robert Bosch Gmbh | Driver assistance system and method for tracking located objects |
DE102009037170B4 (en) * | 2009-08-03 | 2019-12-19 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Method for sending an acoustic signal |
DE102020202966A1 (en) | 2020-03-09 | 2021-09-09 | Volkswagen Aktiengesellschaft | Safety device, method for correcting a warning device and motor vehicle |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19650863C1 (en) | 1996-12-07 | 1998-04-16 | Bosch Gmbh Robert | Method of detecting distance sensor vertical adjustment error |
DE19832079A1 (en) | 1998-07-16 | 2000-01-20 | Volkswagen Ag | Method and device for detecting objects in the vicinity of a motor vehicle |
US6157294A (en) | 1997-12-27 | 2000-12-05 | Honda Giken Kogyo Kabushiki Kaisha | Vehicle obstacle detecting system |
DE10030421A1 (en) | 1999-06-23 | 2001-01-04 | Honda Motor Co Ltd | Motor vehicle environment monitoring system detects object near vehicle from image produced by imaging device on vehicle, derives relative position, vector, collision probability |
DE10033599A1 (en) | 1999-07-13 | 2001-02-01 | Honda Motor Co Ltd | Position detection arrangement for vehicle, calculating tilt-dependent correction value based on shifting of position of number of objects in height direction |
US20020130953A1 (en) | 2001-03-13 | 2002-09-19 | John Riconda | Enhanced display of environmental navigation features to vehicle operator |
DE10138641A1 (en) | 2001-08-07 | 2003-02-20 | Ibeo Automobile Sensor Gmbh | Fast and reliable determination of a model or optimum-driving course for a motor vehicle based on information relating to the actual path of a road obtained using an optoelectronic scanning or sensing system |
DE10148062A1 (en) | 2001-09-28 | 2003-04-10 | Ibeo Automobile Sensor Gmbh | Localizing system for objects uses transmitter for pulsed emission of laser beams and receiver with sensor to pick up reflected beam pulses and to analyze them regarding their execution time |
-
2003
- 2003-10-07 DE DE10346573.1A patent/DE10346573B4/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19650863C1 (en) | 1996-12-07 | 1998-04-16 | Bosch Gmbh Robert | Method of detecting distance sensor vertical adjustment error |
US6157294A (en) | 1997-12-27 | 2000-12-05 | Honda Giken Kogyo Kabushiki Kaisha | Vehicle obstacle detecting system |
DE19832079A1 (en) | 1998-07-16 | 2000-01-20 | Volkswagen Ag | Method and device for detecting objects in the vicinity of a motor vehicle |
DE10030421A1 (en) | 1999-06-23 | 2001-01-04 | Honda Motor Co Ltd | Motor vehicle environment monitoring system detects object near vehicle from image produced by imaging device on vehicle, derives relative position, vector, collision probability |
DE10033599A1 (en) | 1999-07-13 | 2001-02-01 | Honda Motor Co Ltd | Position detection arrangement for vehicle, calculating tilt-dependent correction value based on shifting of position of number of objects in height direction |
US20020130953A1 (en) | 2001-03-13 | 2002-09-19 | John Riconda | Enhanced display of environmental navigation features to vehicle operator |
DE10138641A1 (en) | 2001-08-07 | 2003-02-20 | Ibeo Automobile Sensor Gmbh | Fast and reliable determination of a model or optimum-driving course for a motor vehicle based on information relating to the actual path of a road obtained using an optoelectronic scanning or sensing system |
DE10148062A1 (en) | 2001-09-28 | 2003-04-10 | Ibeo Automobile Sensor Gmbh | Localizing system for objects uses transmitter for pulsed emission of laser beams and receiver with sensor to pick up reflected beam pulses and to analyze them regarding their execution time |
Also Published As
Publication number | Publication date |
---|---|
DE10346573A1 (en) | 2005-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102013200132B4 (en) | Lane keeping system for a vehicle | |
EP3160813B1 (en) | Method for producing a model of the surroundings of a vehicle | |
DE102005009814B4 (en) | Vehicle condition detection system and method | |
DE112012007157B4 (en) | Driving assistance device and driving assistance method | |
EP2054869B1 (en) | Method and apparatus for driver assistance through the production of lane information for supporting or replacing lane information from a video-based lane information device | |
DE102020127043A1 (en) | SECURITY SYSTEM FOR ONE VEHICLE | |
DE102013112459B4 (en) | An apparatus and method for assessing a probability of a collision between a vehicle and a target, vehicle collision avoidance system, and methods for avoiding a collision between a vehicle and a target | |
EP3830522B1 (en) | Method for estimating the quality of localisation in the self-localisation of a vehicle, device for carrying out the method, vehicle, and computer program | |
DE102012216386A1 (en) | Method for operating a driver assistance system of a vehicle | |
DE102020112686A1 (en) | Adaptive autonomous emergency braking system taking into account the steering path and control method for the same | |
DE102020111856A1 (en) | Vehicle SCC system based on complex information and methods for controlling the same | |
DE102018125207A1 (en) | VEHICLE INTERNAL TRANSPORT ASSISTANCE | |
DE102011014081A1 (en) | Method for detecting a turning maneuver | |
DE102015009849B4 (en) | Vehicle-type radar system and method for removing a target of no interest | |
DE102017223431B4 (en) | Method for assisting a driver of a motor vehicle when overtaking; motor vehicle; as well as system | |
DE102017111468A1 (en) | A vehicle system and method for determining whether a vehicle occupant has sensed an off-vehicle object | |
DE102017205495A1 (en) | Device and method for focusing sensors in the driving dynamic limit range for a motor vehicle | |
DE102016203746A1 (en) | Method and device for detecting a wrong-way driver vehicle | |
DE102014105374B4 (en) | Driver assistance system | |
DE102017108248A1 (en) | STREET FEATURE RECOGNITION WITH A VEHICLE CAMERA SYSTEM | |
DE102008025773A1 (en) | Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition | |
DE102014008897A1 (en) | Method for determining an expected time for a collision between a first motor vehicle and a second motor vehicle and associated motor vehicle | |
DE102018219760A1 (en) | Collision prediction system | |
DE102016002232A1 (en) | Method for operating a motor vehicle | |
DE102018003130A1 (en) | Testing a vehicle with simulated road users |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |