DE10346573B4 - Environment detection with compensation of self-movement for safety-critical applications - Google Patents

Environment detection with compensation of self-movement for safety-critical applications Download PDF

Info

Publication number
DE10346573B4
DE10346573B4 DE10346573.1A DE10346573A DE10346573B4 DE 10346573 B4 DE10346573 B4 DE 10346573B4 DE 10346573 A DE10346573 A DE 10346573A DE 10346573 B4 DE10346573 B4 DE 10346573B4
Authority
DE
Germany
Prior art keywords
vehicle
movement
objects
sensors
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10346573.1A
Other languages
German (de)
Other versions
DE10346573A1 (en
Inventor
Stephan Simon
Sebastian Lindner
Henning Voelz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE10346573.1A priority Critical patent/DE10346573B4/en
Publication of DE10346573A1 publication Critical patent/DE10346573A1/en
Application granted granted Critical
Publication of DE10346573B4 publication Critical patent/DE10346573B4/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • B60W10/06Conjoint control of vehicle sub-units of different type or different function including control of propulsion units including control of combustion engines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Automotive Seat Belt Assembly (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zur Umfelderfassung eines Fahrzeugs (30) in aktuellen Fahrsituationen im Verkehr, bei dem aus dem Umfeld bereits erfasste Objekte (31, 33, 34, 36) nachverfolgt werden, und das Nachverfolgen dieser Objekte (31, 33, 34, 36) durch eine korrigierte Koordinatentransformation dieser Objekte vereinfacht wird, mit den Schritten:a) Erfassen von Trägheitsmessgrößen mit am Fahrzeug (30) angebrachten Trägheitssensoren (3), die die Feststellung wenigstens einer der folgenden aktuellen Bewegungsgrößen der Eigenbewegung des Fahrzeugs erlauben:a1) Nickbewegung,a2) Gierbewegung,a3) Rollbewegung,b) Einbeziehen (23) von Korrekturdaten, die sich aus einer Auswertung der Trägheitsmessgrößen ergeben, in Berechnungen beim Nachverfolgen der bereits erfassten Objekte (31, 33, 34, 36), undc) Weiterführen der Kontrolle von bereits erfassten Objekten (31, 33, 34, 36), die während einer vorbestimmten Zeitspanne aus dem Erfassungsbereich wenigstens eines Sensors verschwunden sind, wobei Sicherheitsfunktionen aufgrund der Annäherung des Fahrzeugs (30) an ein momentan nicht im Erfassungsbereich eines Sensors liegenden Objekts (34, 31) ausgelöst werden, wenn eine Prädizierung (38, 35) des entsprechenden Objektzustandes unter Berücksichtigung der Eigenbewegung des Fahrzeugs (30) eine Kollision wahrscheinlich erscheinen lässt.A method for detecting the surroundings of a vehicle (30) in current driving situations in traffic, in which objects (31, 33, 34, 36) already detected from the surroundings are tracked, and the tracking of these objects (31, 33, 34, 36) by a Corrected coordinate transformation of these objects is simplified, with the steps: a) Acquisition of inertia measured variables with inertia sensors (3) attached to the vehicle (30), which allow the determination of at least one of the following current movement variables of the vehicle's own movement: a1) pitching movement, a2) yawing movement , a3) rolling movement, b) including (23) correction data resulting from an evaluation of the inertia measurement variables in calculations when tracking the objects (31, 33, 34, 36) that have already been detected, and c) continuing the control of objects that have already been detected (31, 33, 34, 36), which have disappeared from the detection range of at least one sensor during a predetermined period of time, whereby safety function nen are triggered due to the approach of the vehicle (30) to an object (34, 31) that is currently not in the detection range of a sensor if a prediction (38, 35) of the corresponding object state, taking into account the vehicle's own movement (30), is likely to result in a collision makes appear.

Description

Stand der TechnikState of the art

Die vorliegende Erfindung betrifft das Gebiet der Telematik und insbesondere ein Fahrerassistenzsystem mit Erfassung des Fahrzeugumfeldes, wobei ein bereits erfasstes Objekt nachverfolgt wird.The present invention relates to the field of telematics and in particular to a driver assistance system with detection of the vehicle surroundings, an object that has already been detected being tracked.

Derzeit werden verstärkt Verfahren zur Unterstützung des Fahrers eines Kraftfahrzeugs entwickelt. Eine intensive Forschungstätigkeit besteht insbesondere im Bereich der sensorgestützten Umfelderfassung. Dabei werden im Umfeld eines Fahrzeugs Objekte wie z.B. Bäume, Fußgänger, Fahrzeuge und Fahrbahnmarkierungen als solche erkannt und die Ergebnisse zur Unterstützung des Fahrers verwendet. Zur Umfelderfassung werden Sensoren wie beispielsweise Videokameras, Lidar, Entfernungsbildkameras, Infrarotkameras und Radar verwendet. Als besonders problematisch stellt sich die Nachverfolgung bzw. Wiedererkennung von bereits erfassten Objekten heraus. Zum einen weisen die Objekte selbst eine Eigenbewegung auf, so dass sich im Laufe der Zeit ihre eigene Position verändert, zum anderen muss auch die Bewegung des sensortragenden Fahrzeugs berücksichtigt werden. Methods for supporting the driver of a motor vehicle are currently being increasingly developed. There is intensive research activity in particular in the area of sensor-based environment detection. Objects such as trees, pedestrians, vehicles and lane markings are recognized as such in the vicinity of a vehicle and the results are used to support the driver. Sensors such as video cameras, lidar, distance cameras, infrared cameras and radar are used to detect the surroundings. The tracking or recognition of objects that have already been recorded turns out to be particularly problematic. On the one hand, the objects themselves have their own movement, so that their own position changes over time; on the other hand, the movement of the sensor-carrying vehicle must also be taken into account.

Dieses Wiederfinden bzw. Verfolgen von bereits detektierten Objekten ist wichtig, um zu verlässlichen Aussagen über deren Existenz, Position und Bewegung zu gelangen. So wächst die Sicherheit über die Existenz mit der Anzahl der Beobachtungen, denn es ist wahrscheinlich, dass real existierende Objekte in mehreren Messungen bestätigt werden können, während es unwahrscheinlich ist, dass durch Messfehler hervorgerufene „Geisterobjekte“ über mehrere Messungen bestehen bleiben.This finding or tracking of objects that have already been detected is important in order to obtain reliable information about their existence, position and movement. The certainty of existence increases with the number of observations, because it is likely that real objects can be confirmed in several measurements, while it is unlikely that "ghost objects" caused by measurement errors will persist over several measurements.

Außerdem wird die Bestimmung von Position und Existenz in der Genauigkeit verbessert oder sogar erst ermöglicht, wenn für Objekte jeweils mehrere Messungen vorliegen.In addition, the accuracy of the determination of position and existence is improved or even only made possible if several measurements are available for each object.

In den derzeit bekannten Verfahren zur Umfelderfassung werden zur Einbeziehung der Eigenbewegungen des Fahrzeugs Daten von Raddrehzahlsensoren und Lenkwinkelsensoren benutzt.In the currently known methods for detecting the surroundings, data from wheel speed sensors and steering angle sensors are used to include the vehicle's own movements.

In dem in der deutschen Patentanmeldungsschrift DE 100 30 421 A1 offenbarten Verfahren zur Umfelderfassung werden solche Sensoren beispielsweise zur Messung der Gierbewegung um die Hochachse verwendet. Mit der gemessenen Gierrate werden Wendewinkel-abhängige Korrekturen von Positionsdaten eines Objekts mittels Koordinatentransformation durchgeführt. Nicht erfasst werden jedoch Nickbewegungen um die Querachse z.B. bei Vollbremsungen, noch Rollbewegungen um die Längsachse, verursacht beispielsweise durch unebene Fahrbahn. Dieses führt zu erheblichen Ungenauigkeiten des Verfahrens von DE 100 30 421 A1 .In the one in the German patent application specification DE 100 30 421 A1 disclosed methods for sensing the surroundings, such sensors are used, for example, to measure the yaw movement about the vertical axis. With the measured yaw rate, turning angle-dependent corrections of position data of an object are carried out by means of coordinate transformation. However, pitching movements around the transverse axis, for example when braking hard, or rolling movements around the longitudinal axis, caused for example by uneven road surfaces, are not recorded. This leads to considerable inaccuracies in the method of DE 100 30 421 A1 .

Raddrehzahlsensoren und Lenkwinkelsensoren sind jedoch für extremere Fahrsituationen ungeeignet. So wird bei einer Vollbremsung mit blockierenden Reifen ein völlig falscher Beschleunigungswert gemessen. Ähnliches gilt beim Durchdrehen der Reifen auf Glatteis. Des Weiteren ist ein Lenkwinkelsensor, wenn das Fahrzeug ins Schleudern gerät, unbrauchbar.However, wheel speed sensors and steering angle sensors are unsuitable for more extreme driving situations. In the event of a full braking with locking tires, a completely wrong acceleration value is measured. The same applies when the tires spin on black ice. Furthermore, a steering angle sensor cannot be used if the vehicle starts to skid.

Die verfolgten Objekte gehen bei solchen Situationen dem System verloren, weil sie sich nicht in dem Sensorbereich befinden, in dem die automatische Umfelderfassung sie vermutet. Der ganze Sensorbereich muss danach neu nach den Objekten abgesucht werden, was erheblichen Rechenaufwand und damit in Extremsituationen kostbare Zeit erfordert.In such situations, the tracked objects are lost to the system because they are not in the sensor area in which the automatic environment detection assumes them. The entire sensor area must then be searched again for the objects, which requires considerable computing effort and thus valuable time in extreme situations.

Diese Nachteile der bekannten Verfahren führen insbesondere bei extremen Fahrsituationen einschließlich von Unfallsituationen zu falschen oder zu gar keinen Ergebnissen. Dabei ist gerade in solchen Fällen eine Unterstützung des Fahrers aufgrund korrekter und schneller Umfelderfassung besonders sinnvoll. Der Fahrer kann oftmals nicht mehr schnell genug reagieren, oder er handelt stressbedingt falsch. Auch können ihm wichtige Informationen aus dem Umfeld des Fahrzeugs fehlen.These disadvantages of the known methods lead to incorrect results or no results at all, particularly in extreme driving situations, including accident situations. In such cases, it is particularly useful to support the driver due to the correct and quick detection of the surroundings. The driver can often no longer react quickly enough or he is acting incorrectly due to stress. Important information from the area around the vehicle can also be missing.

Aus der DE 100 33 599 A1 ist eine Positionserfassungsvorrichtung für ein Fahrzeug bekannt, welche die Position eines Objekts in einem Realraumkoordinatensystem erfasst. Aus einem durch Kameras erhaltenen Bild wird eine Mehrzahl von Objekten extrahiert. Auf der Basis von Verlagerungsbeträgen der Position der Mehrzahl von Objekten in deren Höhenrichtung wird ein nickabhängiger Korrekturbetrag berechnet. Positionen der Mehrzahl von Objekten werden auf der Basis des nickabhängigen Korrekturbeitrags korrigiert.From the DE 100 33 599 A1 a position detecting device for a vehicle is known which detects the position of an object in a real space coordinate system. A plurality of objects are extracted from an image obtained by cameras. A pitch-dependent correction amount is calculated on the basis of displacement amounts of the position of the plurality of objects in their height direction. Positions of the plurality of objects are corrected on the basis of the pitch-dependent correction contribution.

Aus der US 2002/0130953 A1 ist ein Bildgebungsgerät bekannt, welches durch Bedienereingabe und Computersteuerung auf eine Erkennung von navigationsrelevanten Objekten, wie beispielsweise Straßenschilder oder Hausnummern, trainiert wird. Eine optionale Beleuchtung im sichtbaren, infraroten, ultravioletten Lichtbereich oder in anderen Spektrum verbessert die Bildgebung insbesondere bei Nacht. Eine optionale Verarbeitung kann auf das Bild angewendet werden, um Helligkeit, Schärfe und/oder Größe zu erhöhen und/oder um Positions- oder anderen Verzerrungen oder Fehlern entgegenzuwirken. Computergesteuerte Bewegungsverfolgung, die von Mustererkennungsalgorithmen mit optionaler künstlicher Intelligenz und/oder Standbildfunktion und/oder optischer oder digitaler Bildstabilisierung beeinflusst wird, wird verwendet, um die Sicht von fahrenden Fahrzeugen zu stabilisieren.From the US 2002/0130953 A1 an imaging device is known which is trained to recognize objects relevant to navigation, such as street signs or house numbers, by means of operator input and computer control. Optional lighting in the visible, infrared, ultraviolet light range or in another spectrum improves imaging, especially at night. Optional processing can be applied to the image to increase brightness, sharpness and / or size and / or to counteract positional or other distortions or errors. Computer-controlled motion tracking influenced by pattern recognition algorithms with optional artificial intelligence and / or freeze frame function and / or optical or digital image stabilization is used to stabilize the view of moving vehicles.

Aus der US 6 157 294 A ist ein Verfahren zur Umfelderfassung eines Fahrzeugs in aktuellen Fahrsituationen im Verkehr bekannt, bei dem aus dem Umfeld bereits erfasste Objekte nachverfolgt werden, wobei das Nachverfolgen dieser Objekte durch eine korrigierte Koordinatentransformation dieser Objekte vereinfacht wird. Zudem werden Trägheitsmessgrößen mit am Fahrzeug angebrachten Trägheitssensoren erfasst, welche die Feststellung einer Nickbewegung des Fahrzeugs erlauben. Des Weiteren werden Korrekturdaten, die sich aus einer Auswertung der Trägheitsmessgrößen ergeben, in Berechnungen beim Nachverfolgen der bereits erfassten Objekte einbezogen.From the U.S. 6,157,294 A a method for detecting the surroundings of a vehicle in current driving situations in traffic is known, in which objects already detected from the surroundings are tracked, the tracking of these objects being simplified by a corrected coordinate transformation of these objects. In addition, inertia measurement variables are recorded with inertia sensors attached to the vehicle, which allow the vehicle to be pitched. Furthermore, correction data that result from an evaluation of the inertia measured variables are included in calculations when tracking the objects that have already been detected.

Vorteile der ErfindungAdvantages of the invention

Im Folgenden wird auf die Patentansprüche Bezug genommen.In the following, reference is made to the claims.

Mit den Maßnahmen der unabhängigen Ansprüche wird ein Verfahren bzw. System geschaffen, das durch die erfindungsgemäße Kombination der Fahrzeugumfeldsensorik mit Trägheitssensorik, deren Signale zur Kompensation der Eigenbewegung des sensortragenden Fahrzeugs verwendet werden, in vorteilhafter Weise insbesondere in extremen Verkehrsituationen eine funktionstüchtige Umfelderfassung gewährleistet. Ein Objekt kann somit auch in außergewöhnlichen Situationen zuverlässig bei der Umfelderfassung weiterverfolgt werden. Unter Trägheitssensoren werden dabei Sensoren verstanden, die Trägheitskräfte aufgrund der damit verbundenen Beschleunigungen erfassen, wie zum Beispiel der Sensor mit der Produktbezeichnung DRS-MM1.1, wie er von der Anmelderin selbst vertrieben wird.With the measures of the independent claims, a method and system is created which, through the inventive combination of the vehicle environment sensor system with inertia sensor system, whose signals are used to compensate for the movement of the sensor-carrying vehicle, advantageously ensures a functional environment detection, especially in extreme traffic situations. An object can therefore be reliably tracked further in the context of the detection of the surroundings even in unusual situations. Inertial sensors are understood to be sensors that detect inertial forces due to the associated accelerations, such as the sensor with the product designation DRS-MM1.1, as sold by the applicant himself.

Zu den mit Trägheitssensoren messbaren Trägheitsmessgrößen gehören beispielsweise die Längsbeschleunigung z.B. durch Bremsung oder Vorwärtsbeschleunigung, die Querbeschleunigung z.B. bei Kurvenfahrt, die Auf-/Abwärtsbeschleunigung sowie insbesondere Nickbewegungen, Gierbewegungen und Rollbewegungen. Die erfindungsgemäße Möglichkeit einer so umfangreichen Erfassung der Bewegung eines Fahrzeugs und die Verwendung der daraus gewonnenen Korrekturdaten in der Berechnung beim Nachverfolgen der einmal erfassten Objekte verbessert die Qualität der Nachverfolgung des Objekts erheblich.The inertia measurements that can be measured with inertia sensors include, for example, longitudinal acceleration, e.g. through braking or forward acceleration, lateral acceleration, e.g. when cornering, up / down acceleration and, in particular, nodding movements, yawing movements and rolling movements. The possibility according to the invention of such a comprehensive detection of the movement of a vehicle and the use of the correction data obtained therefrom in the calculation when tracking the objects once detected improves the quality of the tracking of the object considerably.

Ein vorteilhafter zusätzlicher Schritt zum erfindungsgemäßen Verfahren ist die Weiterführung der Kontrolle von bereits erfassten Objekten, die während einer vorbestimmten Zeitspanne aus dem Erfassungsbereich wenigstens eines Sensors verschwunden sind. Dadurch liegen für nicht mehr beobachtbare Objekte, die aus dem Erfassungsbereich verschwunden oder von anderen Objekten überdeckt sind, immer noch prädizierte Objektzustände vor, auf Grund derer Sicherheitsfunktionen aktiviert werden können, wenn die Prädizierung unter Berücksichtigung der Eigenbewegung des Fahrzeugs eine Kollision mit dem Objekt wahrscheinlich erscheinen lässt.An advantageous additional step for the method according to the invention is the continuation of the control of objects that have already been detected, which have disappeared from the detection area of at least one sensor during a predetermined period of time. This means that predicted object states are still available for objects that can no longer be observed and that have disappeared from the detection area or are covered by other objects, on the basis of which safety functions can be activated if the prediction, taking into account the vehicle's own movement, appears likely to collide with the object leaves.

In den Unteransprüchen sind vorteilhafte Ausgestaltungen, Weiterbildungen und Verbesserungen des jeweiligen Gegenstandes der Erfindung angegeben.Advantageous refinements, developments and improvements of the respective subject matter of the invention are specified in the subclaims.

Vorzugsweise werden Drehratensensoren und/oder Beschleunigungssensoren als Trägheitssensoren verwendet. Damit ist es möglich, die Eigenbewegung so genau und vollständig zu erfassen, wie es für das erfindungsgemäße Verfahren erforderlich ist, um die störenden Einflüsse der Eigenbewegung auf die Verfolgung der Objekte im Umfeld des sensortragenden Fahrzeugs eliminieren zu können.Yaw rate sensors and / or acceleration sensors are preferably used as inertia sensors. This makes it possible to record the intrinsic movement as precisely and completely as is required for the method according to the invention in order to be able to eliminate the disruptive influences of the intrinsic movement on the tracking of the objects in the vicinity of the sensor-carrying vehicle.

Mit einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens, bei dem ein Objektzustand aus Sicht des sensortragenden Fahrzeugs unter Einbeziehung der Korrekturdaten prädiziert wird, kann der Objektzustand insbesondere nach Position und Bewegung zuverlässig und genau prädiziert und dadurch besser weiterverfolgt werden. Dabei werden entweder die von den Trägheitssensoren erfassten Korrekturdaten zur Kompensation der Eigenbewegung auf den prädizierten Objektzustand angewendet oder die Kompensation der Eigenbewegung des Fahrzeugs erfolgt direkt auf die Sensordatenerfassung hin.With an advantageous further development of the method according to the invention, in which an object state is predicted from the point of view of the sensor-carrying vehicle, taking the correction data into account, the object state can be predicted reliably and precisely, in particular according to position and movement, and thus better tracked. Either the correction data recorded by the inertia sensors to compensate for the intrinsic movement are applied to the predicted object state, or the compensation for the intrinsic motion of the vehicle is carried out directly on the basis of the sensor data acquisition.

Durch die zuverlässige und genaue Prädizierung eines Objektzustandes braucht bei einer späteren Umfeldmessung nur ein engerer Bereich, in dem das Objekt nach der Vorhersage vermutet wird, abgesucht zu werden, um das Objekt dort wiederzuerkennen. Damit wir Rechenaufwand und Zeit erspart.Due to the reliable and precise prediction of an object state, only a narrower area, in which the object is suspected according to the prediction, needs to be searched for a later measurement of the surroundings in order to recognize the object there again. So that we save computational effort and time.

Eine zusätzliche, vorteilhafte Weiterbildung des erfindungsgemäßen Verfahrens stellt der weitere Schritt des Bewertens der aktuellen Fahrsituation zum Zwecke des Einleitens situationsangepasster Maßnahmen dar. Zu diesen zählt insbesondere das Auslösen von Sicherheitsfunktionen des Fahrzeugs. Eine vorteilhafte Ausgestaltung dieser Funktionen ist das automatische Eingreifen in die Fahrdynamik des Fahrzeugs durch Betätigung vorbestimmter Aktuatoren, wie beispielsweise Bremsen, Lenken, Gas geben, Hupen oder Lichthupe betätigen, wenn sich aus der Bewertung der Situation ergibt, dass sich ohne ein Eingreifen ein Unfall mit großer, vorgegebener Wahrscheinlichkeit ereignen würde. Mit diesen Maßnahmen kann ein Beitrag dazu geschaffen werden, dass Unfälle vermieden werden.An additional, advantageous development of the method according to the invention is the further step of evaluating the current driving situation for the purpose of initiating measures adapted to the situation. These include, in particular, the triggering of safety functions of the vehicle. An advantageous embodiment of these functions is the automatic intervention in the driving dynamics of the vehicle by actuating predetermined actuators, such as braking, steering, accelerating, horn or headlight flasher, if the assessment of the situation shows that an accident occurs without intervention large, predetermined probability would occur. These measures can help ensure that accidents are avoided.

Eine besonders bevorzugte Variante des erfindungsgemäßen Systems ist die Verwendung eines Steuergerätes mit den oben genannten Funktionen mit einer Schnittstelle zu Trägheitssensoren, die auch von anderen, den Fahrer unterstützenden Funktionen im Fahrzeug benutzt werden, da dann die Trägheitssensoren und deren Daten mehrfach verwendet werden. So werden Trägheitssensoren beispielsweise ebenfalls in der Fahrdynamikregelung (ESP) und bei der Scheinwerfersteuerung eingesetzt.A particularly preferred variant of the system according to the invention is the use of a control unit with the above functions with an interface to inertia sensors that are also used by other functions in the vehicle that support the driver, since the inertia sensors and their data are then used multiple times. For example, inertia sensors are also used in vehicle dynamics control (ESP) and headlight control.

Zeichnungendrawings

Anhand der Zeichnungen werden Ausführungsbeispiele der Erfindung erläutert.Exemplary embodiments of the invention are explained with the aid of the drawings.

Es zeigen

  • 1 eine Blockdarstellung einer Ausgestaltung des erfindungsgemäßen Verfahrens zur Umfelderfassung eines Fahrzeugs;
  • 2 eine Blockdarstellung einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens zur Umfelderfassung eines Fahrzeugs;
  • 3 zwei aus der Vogelperspektive skizzierte, zu aufeinander folgenden Zeitpunkten t1 (links) und t2 (rechts) beispielhaft erfasste Verkehrsituationen mit einem Fahrzeug, das eine Ausgestaltung des erfindungsgemäßen Systems enthält;
  • 4 die zwei zu aufeinander folgenden Zeitpunkten t1 und t2 gemäß 3 erfassten Verkehrssituationen skizziert aus Sicht eines Videosensors des Fahrzeugs;
  • 5 die Prädiktion der Positionen von im Zeitpunkt t1 im Sensorbild (linkes Bild) erfassten Objekten auf das skizzierte Sensorbild im Zeitpunkt t2 (rechtes Bild) ohne Kompensation der Eigenbewegung des Fahrzeugs;
  • 6 eine Skizze mit Sensorbild zum Zeitpunkt t2 und mit Prädiktion der Position von früher beobachteten Objekten nach einer Variante der erfindungsgemäßen Kompensation der Eigenbewegung des Fahrzeugs;
  • 7 eine Skizze mit Sensorbild zum Zeitpunkt t2 mit Prädiktion der Position von früher beobachteten Objekten nach einer weiteren Variante der erfindungsgemäßen Kompensation der Eigenbewegung des Fahrzeugs; und
  • 8 eine Blockdarstellung einer Ausgestaltung eines erfindungsgemäßen Systems mit Schnittstelle zu von anderen Systemen des Fahrzeugs genutzten Trägheitssensoren.
Show it
  • 1 a block diagram of an embodiment of the method according to the invention for detecting the surroundings of a vehicle;
  • 2 a block diagram of a further embodiment of the method according to the invention for detecting the surroundings of a vehicle;
  • 3 two traffic situations with a vehicle, which contains an embodiment of the system according to the invention, sketched from a bird's eye view and recorded by way of example at successive times t1 (left) and t2 (right);
  • 4th the two at successive times t1 and t2 according to 3 detected traffic situations outlined from the point of view of a video sensor of the vehicle;
  • 5 the prediction of the positions of objects detected at time t1 in the sensor image (left image) on the sketched sensor image at time t2 (right image) without compensation for the vehicle's own movement;
  • 6th a sketch with a sensor image at time t2 and with prediction of the position of previously observed objects according to a variant of the inventive compensation for the vehicle's own movement;
  • 7th a sketch with a sensor image at time t2 with prediction of the position of previously observed objects according to a further variant of the inventive compensation for the vehicle's own movement; and
  • 8th a block diagram of an embodiment of a system according to the invention with an interface to inertial sensors used by other systems of the vehicle.

Beschreibung von AusführungsbeispielenDescription of exemplary embodiments

In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsgleiche Komponenten.In the figures, the same reference symbols denote the same or functionally identical components.

1 und 2 zeigen Blockschaltbilder von zwei alternativen Ausgestaltungen des erfindungsgemäßen Verfahrens. Für beide Varianten gilt übereinstimmend: Die Umfeldsensoren 1, bestehend aus Video- und/oder Radar- und/oder Lidar-Sensoren und/oder Entfernungsbildkamera und/oder Infrarotkamera erfassen die Umgebung des eigenen Fahrzeugs und liefern ihre Daten an ein System 5 zur Objektdetektion weiter. Dieses System enthält einen Algorithmus 13 zum Auffinden und Verfolgen von Objekten, der auf aktuelle Sensordaten 7 aber auch auf um den Zeitschritt „T“ 9 frühere Sensordaten 11 zurückgreifen kann. Unter „Auffinden“ ist das erstmalige Endecken eines (neuen) Objekts zu verstehen. Mit „Verfolgen“ ist das Wiederfinden von bereits „entdeckten“ Objekten gemeint. 1 and 2 show block diagrams of two alternative embodiments of the method according to the invention. The same applies to both variants: The environment sensors 1 , consisting of video and / or radar and / or lidar sensors and / or distance camera and / or infrared camera record the surroundings of the own vehicle and supply their data to a system 5 to object detection. This system contains an algorithm 13th to find and track objects based on current sensor data 7th but also to the time step "T" 9 previous sensor data 11 can fall back on. “Finding” means the first time a (new) object is discovered. “Tracking” means finding objects that have already been “discovered”.

Das Wiederfinden wird dadurch unterstützt bzw. ermöglicht, dass auf der Basis von mindestens einem um den Zeitschritt „T“ 17 früheren Objektzustand 19 der aktuelle Objektzustand 15 mit einem Prädiktor 21 vorhergesagt werden kann. Dabei enthält ein vorhergesagter Objektzustand wenigstens den geschätzten Aufenthaltsort des Objekts. Der Objektzustand kann ferner Bewegungsdaten beinhalten wie Geschwindigkeitsvektor, Beschleunigungsvektor, Rotationsachse, Winkelgeschwindigkeit und Winkelbeschleunigung sowie weitere zeitliche Ableitungen dieser Größen. Außerdem kann der Objektzustand weitere Größen beinhalten, die zur Verfolgung des Objektes nützlich sein können, wie z. B. die räumliche Orientierung des Objekts und/oder die geschätzten Objektabmessungen.The retrieval is supported or made possible by the fact that on the basis of at least one around the time step "T" 17th previous property condition 19th the current state of the property 15th with a predictor 21 can be predicted. A predicted object state contains at least the estimated location of the object. The object state can also contain movement data such as speed vector, acceleration vector, axis of rotation, angular speed and angular acceleration as well as other time derivatives of these variables. In addition, the object state can contain other variables that can be useful for tracking the object, such as B. the spatial orientation of the object and / or the estimated object dimensions.

Die zu zwei aufeinanderfolgenden Zeitpunkten gehörenden Koordinatensysteme z. B. die mit dem sensortragenden Fahrzeug starr verbundenen Koordinatensysteme, werden durch Kompensation 23 der Eigenbewegung des Fahrzeugs eindeutig ineinander überführt. Diese Transformation 23 zwischen den beiden Koordinatensystemen ist durch einen dreidimensionalen Translationsvektor und eine (3,3)-Rotationsmatrix beschrieben. Diese Rotationsmatrix enthält drei unabhängige Größen, die als Drehwinkel um die kartesischen Koordinatenachsen interpretiert werden. Insgesamt ist die Transformation 23 durch sechs unabhängige Größen bestimmt. Diese sechs Parameter der Transformation 23, auch als Korrekturdaten bezeichnet, werden erfindungsgemäß aus den von den Trägheitssensoren 3 erfassten Trägheitsmessgrößen bestimmt.The coordinate systems belonging to two successive points in time z. B. the coordinate systems rigidly connected to the sensor-carrying vehicle are compensated 23 the proper movement of the vehicle clearly transferred into one another. This transformation 23 between the two coordinate systems is described by a three-dimensional translation vector and a (3,3) -rotation matrix. This rotation matrix contains three independent quantities that are interpreted as rotation angles around the Cartesian coordinate axes. Overall, the transformation is 23 determined by six independent quantities. These six parameters of transformation 23 , also referred to as correction data, are obtained according to the invention from the data from the inertia sensors 3 determined measured inertia variables.

Zur Bestimmung aller sechs Parameter, sind drei Drehratensensoren und drei Beschleunigungssensoren vorhanden. Falls nur weniger Trägheitssensoren 3 zur Verfügung stehen, ist die Erfassung der Eigenbewegung des Fahrzeugs entsprechend eingeschränkt, wie beispielsweise auf Nick-, Gier- oder Rollbewegung.To determine all six parameters, there are three rotation rate sensors and three acceleration sensors. If only less Inertial sensors 3 are available, the detection of the vehicle's own movement is restricted accordingly, such as pitching, yawing or rolling movement.

Das Ergebnis der Objektverfolgung ist ein aktueller Objektzustand 15, der z. B. in Form einer Objektliste an Sicherheits- und Komfortsysteme im Fahrzeug weitergereicht werden kann.The result of the object tracking is a current object status 15th , the z. B. can be passed on to safety and comfort systems in the vehicle in the form of an object list.

Für die erfindungsgemäße Kompensation 23 der Eigenbewegung mittels der aus den Trägheitssensoren 3 bestimmten Transformationsparametern wird bei der in 1 dargestellten Variante die Kompensation 23 der Eigenbewegung auf den prädizierten Objektzustand angewendet. Dabei wird die auf dem Koordinatensystem der früheren Beobachtung beruhende Prädiktion geeignet kompensiert, so dass der Algorithmus zur Objektverfolgung 13 seinen Suchbereich geeignet auf eine kleine Region um einen prädizierten Raumbereich herum einschränken kann. Die Reihenfolge der Blöcke 21 und 23 ist dabei beliebig.For the compensation according to the invention 23 the proper movement by means of the inertia sensors 3 certain transformation parameters are used in the in 1 the variant shown, the compensation 23 the proper motion applied to the predicted state of the object. The prediction based on the coordinate system of the earlier observation is suitably compensated so that the algorithm for object tracking 13th can appropriately restrict its search area to a small region around a predicted spatial area. The order of the blocks 21 and 23 is arbitrary.

Die folgenden Erläuterungen werden nun anhand des beispielhaft ausgewählten Sensors „Videokamera“ gegeben. Der Fachmann wird jedoch verstehen, dass auch andere Sensoren, wie die bereits eingangs erwähnten Lidar, Entfernungsbildkameras, Infrarotkameras und Radar verwendet werden, und systematisch ähnlich Ergebnisse liefern können.The following explanations will now be given using the “video camera” sensor selected as an example. However, the person skilled in the art will understand that other sensors, such as the lidar, range image cameras, infrared cameras and radar already mentioned at the outset, can also be used and can systematically provide similar results.

Bei der in 2 dargestellten Variante wird die erfindungsgemäße Kompensation 23 der Eigenbewegung direkt auf die Sensordaten angewendet. Dabei wird die Koordinatentransformation zur Kompensation der Eigenbewegung so umgerechnet, dass sie direkt in dem Koordinatensystem der Umfeldsensoren angewendet werden. Dabei ist es beliebig, ob die Kompensation „vorwärts“ auf die früheren Sensordaten 11 oder „rückwärts“ auf die aktuellen Sensordaten 7 angewendet wird.At the in 2 The variant shown is the compensation according to the invention 23 the proper movement applied directly to the sensor data. The coordinate transformation to compensate for the intrinsic movement is converted in such a way that it is used directly in the coordinate system of the environment sensors. It is irrelevant whether the compensation is "forward" to the earlier sensor data 11 or "backwards" to the current sensor data 7th is applied.

Bezogen auf Bilddaten bedeutet dies beispielsweise für die Kompensation „rückwärts“, dass die zum späteren Zeitpunkt t2 aufgenommenen Bilddaten so umgerechnet werden, als ob sie aus der Kameraperspektive vom früheren Zeitpunkt t1 aufgenommen worden wären.In relation to image data, this means for the “backwards” compensation, for example, that the image data recorded at the later point in time t 2 are converted as if they had been recorded from the camera perspective from the earlier point in time t1.

Ebenso ist es möglich „vorwärts“ zu kompensieren, also die zum Zeitpunkt t1 aufgenommenen Bilddaten so umzurechnen, als ob sie aus der Kameraperspektive vom Zeitpunkt t2 aufgenommen worden wären. Bei der Kompensation vorwärts liegen Schätzungen der Objektzustände, wie die Entfernungen der Objekte von der Kamera und Objektabmessungen vor, die für eine genauere Kompensation ausgenutzt werden können.It is also possible to compensate “forwards”, that is to say to convert the image data recorded at time t1 as if they had been recorded from the camera perspective at time t2. With the compensation forwards, there are estimates of the object states, such as the distances of the objects from the camera and object dimensions, which can be used for a more precise compensation.

Bei der Kompensation rückwärts kann auf prädizierte Objektzustände zurückgegriffen werden. Diese Ausnutzung der Objektzustände ist durch gestrichelte Linien im Blockdiagramm dargestellt.When compensating backwards, predicted object states can be used. This utilization of the object states is shown by dashed lines in the block diagram.

Der Block 23 in 2 besitzt zwei Eingangs- und zwei Ausgangspfeile, die als Alternativen zu verstehen sind, zum einen für die Kompensation „rückwärts“ und zum anderen für die Kompensation „vorwärts“.The block 23 in 2 has two input and two output arrows, which are to be understood as alternatives, on the one hand for the compensation "backwards" and on the other hand for the compensation "forwards".

Mit Bezug zu 3 bis 7 werden im folgenden beispielhaft ausgewählte Verkehrssituationen herangezogen, um die Wirkungsweise der vorliegenden Erfindung zu verdeutlichen.In reference to 3 until 7th traffic situations selected by way of example are used below in order to illustrate the mode of operation of the present invention.

3 zeigt links die Ausgangssituation zum Zeitpunkt t1 aus der Vogelperspektive. Zwei Fahrzeuge 30, 36 kommen sich entgegen. Auf dem rechten Fahrstreifen des sensortragenden Fahrzeugs 30 (unten rechts, begrenzt durch eine rechte Fahrstreifenbegrenzung 31 und eine linke Fahrstreifenbegrenzung 33 befindet sich ein Fußgänger 34. Das sensortragende Fahrzeug 30 hat in Frontrichtung einen Sensorbereichswinkel 32 von beispielweise 40 Grad. Es führt nun, wie rechts in 3 dargestellt, ein Ausweichmanöver nach links durch, um die Kollision mit dem Fußgänger 34 zu vermeiden. Das Fahrzeug 30 befindet sich bereits in einer Schleuderbewegung. 3 shows the initial situation at time t1 from a bird's eye view on the left. Two vehicles 30th , 36 come towards each other. In the right lane of the vehicle carrying the sensor 30th (bottom right, limited by a right lane delimitation 31 and a left lane boundary 33 there is a pedestrian 34 . The sensor-carrying vehicle 30th has a sensor range angle in the front direction 32 of 40 degrees, for example. It now leads, as on the right in 3 shown an evasive maneuver to the left to avoid the collision with the pedestrian 34 to avoid. The vehicle 30th is already in a spin motion.

Rechts ist die Situation zum späteren Zeitpunkt t2\ dargestellt. Beide Fahrzeuge 30, 36 haben sich weiterbewegt, der Fußgänger 34 nicht. Das sensortragende Fahrzeug 30 hat durch die Schleuderbewegung seine Orientierung erheblich verändert. Der Fußgänger 34 befindet sich nicht mehr im Sensorbereich. Die linke Fahrstreifenbegrenzung 33, die von der Gegenspur abgrenzt, ist gerade noch im Sensorbereich.The situation at the later point in time t2 \ is shown on the right. Both vehicles 30th , 36 have moved on, the pedestrian 34 Not. The sensor-carrying vehicle 30th has changed its orientation considerably as a result of the sling motion. The pedestrian 34 is no longer in the sensor range. The left lane boundary 33 that delimits the opposite lane is just in the sensor area.

4 zeigt dieselbe Szene mit entgegenkommendem Fahrzeug 36 und Fußgänger 34 zu den Zeitpunkten t1 und t2 aus der Sicht eines Videosensors. Ebenso gut sind andere Detektoren wie z.B. Infrarotsensoren einsetzbar. Zum Zeitpunkt t2 ist der Fußgänger 34 bereits aus dem Erfassungsbereich des Videosensors verschwunden - trotzdem besteht immer noch die Gefahr der Kollision mit dem Fußgänger 34. 4th shows the same scene with an oncoming vehicle 36 and pedestrians 34 at times t1 and t2 from the point of view of a video sensor. Other detectors such as infrared sensors can be used just as well. The pedestrian is at time t2 34 has already disappeared from the detection range of the video sensor - but there is still a risk of collision with pedestrians 34 .

5 zeigt links, dem Kamerabild mit Fußgänger 34 und entgegenkommendem Fahrzeug 36 vom Zeitpunkt t1 überlagert, die Prädiktion der jeweiligen Objektzustände 38, 40 für den Zeitpunkt t2, dargestellt als gepunktet umrandete Polygone. Auf dem linken Bild läuft alles nach Plan, da keine Schleuderbewegung des Fahrzeugs vorhanden ist. 5 shows on the left, the camera image with pedestrians 34 and oncoming vehicle 36 from time t1 superimposed on the prediction of the respective object states 38 , 40 for the point in time t2, shown as polygons bordered by dotted lines. In the picture on the left everything is going according to plan as there is no skidding movement of the vehicle.

Bei Anwendung dieser für den Zeitpunkt t2 durchgeführten Prädiktion auf das zugehörige Bild des Videosensors vom Zeitpunkt t2, ohne dabei die Kompensation der Eigenbewegung durchzuführen, zeigt das Ergebnis in 5 rechts, dass die Prädiktion der Objektzustände für die Person 38, das entgegenkommende Fahrzeug 40 und die Projektion 37 der linken Fahrstreifenbegrenzung sowie die der rechten 35 und der jeweilige tatsächliche Objektzustand nicht übereinstimmen. Das entgegenkommende Fahrzeug 36 bei der Umfelderfassung wiederzufinden, ist mit einem sehr hohen Suchaufwand verbunden. Ein korrektes Wiederfinden des Fußgängers 34 ist gar nicht möglich, weil er nicht mehr im Bild vorhanden ist. Ebenso problematisch oder noch problematischer ist es, die Lage und Richtung, ggf. mit Krümmung des eigenen Fahrstreifens zwischen den Begrenzungen 31 und 33 wiederzufinden.When this prediction, carried out for time t2, is applied to the associated image of the video sensor from time t2, without performing the compensation for the intrinsic movement, the result is shown in FIG 5 right that the prediction of the object states for the person 38 , the oncoming vehicle 40 and the projection 37 the left lane boundary as well as that of the right 35 and the respective actual object state do not match. The oncoming vehicle 36 Finding it again when surveying the surroundings is associated with a very high search effort. Correct recovery of the pedestrian 34 is not possible at all because it is no longer in the picture. Equally problematic or even more problematic is the position and direction, possibly with the curvature of one's own lane between the boundaries 31 and 33 to find again.

6 enthält eine Skizze mit Sensorbild zum Zeitpunkt t2 und mit Prädiktion der Position von früher beobachteten Objekten nach einer Variante der erfindungsgemäßen Kompensation der Eigenbewegung des sensortragenden Fahrzeugs. 6th contains a sketch with a sensor image at time t2 and with prediction of the position of previously observed objects according to a variant of the inventive compensation for the own movement of the sensor-carrying vehicle.

Die Prädiktion des Zustands 40 für das entgegenkommende Fahrzeug liegt nahe dem tatsächlichen Zustand 36, so dass der Suchraum klein gehalten werden kann. Für den Fußgänger 38 wird prädiziert, dass dieser sich deutlich außerhalb des Erfassungsbereichs des Videosensors befindet. Die Suche nach dem Fußgänger im Bild unterbleibt von vorneherein. Dasselbe gilt für die rechte Fahrstreifenbegrenzung 33.The prediction of the state 40 for the oncoming vehicle is close to the actual state 36 so that the search space can be kept small. For the pedestrian 38 it is predicted that this is clearly outside the detection range of the video sensor. The search for the pedestrian in the picture is omitted from the start. The same applies to the right lane boundary 33 .

In 7 ist dargestellt, wie das Bild des Videosensors enthaltend die Abbildung eines entgegenkommenden Fahrzeugs 36 zum Zeitpunkt t2 aussieht, nachdem darauf die Kompensation der Eigenbewegung rückwärts angewendet wurde, um es mit dem Bild vom Zeitpunkt t1 und der darauf basierenden Prädiktionen 38, 40, und 35 bzw. 37 vergleichen zu können. Auch hier gilt, dass für den Fußgänger bekannt ist, dass er sich außerhalb des Erfassungsbereichs befindet.In 7th is shown as the image of the video sensor containing the image of an oncoming vehicle 36 at time t2, after the compensation of the self-motion backwards has been applied to it, in order to match the image from time t1 and the predictions based on it 38 , 40 , and 35 or. 37 to be able to compare. Here, too, it applies that the pedestrian is known to be outside the detection area.

Für nicht mehr beobachtbare Objekte, die aus dem Erfassungsbereich verschwunden oder sogar von anderen Objekten überdeckt worden sind, liegen immer noch prädizierte Objektzustände 38 und 35, bzw. 37 vor, auf Grund derer unter Umständen Sicherheitsfunktionen wie beispielsweise Bremsen, Lenken, Gas geben, Hupen oder Lichthupe betätigen, eingeleitet werden, wenn sich aus der Bewertung der Situation ergibt, dass sich ohne ein Eingreifen ein Unfall mit großer, vorgegebener Wahrscheinlichkeit ereignen würde.For objects that can no longer be observed that have disappeared from the detection area or have even been covered by other objects, there are still predicted object states 38 and 35 , or. 37 on the basis of which, under certain circumstances, safety functions such as braking, steering, accelerating, activating the horn or headlight flasher, are initiated if the assessment of the situation shows that, without intervention, an accident would occur with a high, predetermined probability.

In 8 ist das Umfeldsensierungssystem 5 eines Kraftfahrzeugs verbunden mit einem CAN-Bus 50 als Schnittstelle zum Airbagsteuergerät 52, zum ESP-Steuergerät 54 und zu einem weiteren Trägheitssensor 56 dargestellt. Das Umfeldsensierungssystem 5 enthält eine Recheneinheit zur Kompensation der Eigenbewegung des Fahrzeugs. Erfindungsgemäß werden dafür Trägheitsmessgrößen von Trägheitssensoren verwendet. Die Messdaten werden von den einzelnen Trägheitssensoren über den CAN-Bus 50 an die jeweiligen Ports 58, 60, 62 des Umfeldsensierungssystems 5 übermittelt. In einen Port 58 für die Längsbeschleunigung des Fahrzeugs gelangen die Daten von dem Trägheitssensor des Airbag-Steuergeräts 54, in einen zweiten Port 60 für Gier- und Rollbewegungen werden die Daten von den Trägheitssensoren des ESP-Steuergeräts 54 eingespeist und der dritte Port 62 erhält die Messdaten des Trägheitssensors 56 für die Nickbewegung.In 8th is the environment sensing system 5 of a motor vehicle connected to a CAN bus 50 as an interface to the airbag control unit 52 , to the ESP control unit 54 and to another inertial sensor 56 shown. The environment sensing system 5 contains a computing unit to compensate for the vehicle's own movement. According to the invention, inertial measured variables from inertial sensors are used for this purpose. The measurement data are received from the individual inertia sensors via the CAN bus 50 to the respective ports 58 , 60 , 62 the environment sensing system 5 transmitted. In a port 58 for the longitudinal acceleration of the vehicle, the data are sent from the inertia sensor of the airbag control unit 54 , into a second port 60 for yaw and roll movements, the data from the inertia sensors of the ESP control unit are used 54 fed in and the third port 62 receives the measurement data from the inertia sensor 56 for the pitch movement.

Obwohl die vorliegende Erfindung anhand bevorzugter Ausführungsbeispiele vorstehend beschrieben wurde, ist sie darauf nicht beschränkt, sondern auf vielfältige Weise modifizierbar.Although the present invention has been described above on the basis of preferred exemplary embodiments, it is not restricted thereto, but rather can be modified in many ways.

Die genannten Fahrstreifenbegrenzungen 31 und 33 und damit die dazwischenliegende eigene Fahrbahn werden nur in dem vom jeweiligen Sensor erfassten Bereich erfasst. Hierfür eignen sich vor allem optische Sensoren. Dabei können einzelne Fahrbahnmarkierungen jeweils in den Parametern lateraler Versatz, Winkel relativ zur Vorwärtsrichtung im Fahrzeugkoordinatensystem (nicht zur momentanen Fahrrichtung), Krümmung und Krümmungsänderung, etc., beschrieben werden. Ändert das Fahrzeug seine Orientierung hierzu, und erfassen dies die verwendeten Sensoren, so können die Parameter wie oben beschrieben in eine Vorhersageprojektion umgerechnet werden.The lane boundaries mentioned 31 and 33 and thus your own lane in between are only recorded in the area recorded by the respective sensor. Optical sensors are particularly suitable for this. Individual road markings can be described in the parameters of lateral offset, angle relative to the forward direction in the vehicle coordinate system (not to the current direction of travel), curvature and change in curvature, etc. If the vehicle changes its orientation for this purpose, and the sensors used detect this, the parameters can be converted into a forecast projection as described above.

Schließlich können die Merkmale der Unteransprüche im Wesentlichen frei miteinander und nicht durch die in den Ansprüchen vorliegende Reihenfolge miteinander kombiniert werden, sofern sie unabhängig voneinander sind.Finally, the features of the subclaims can essentially be freely combined with one another and not by the order present in the claims, provided they are independent of one another.

Claims (9)

Verfahren zur Umfelderfassung eines Fahrzeugs (30) in aktuellen Fahrsituationen im Verkehr, bei dem aus dem Umfeld bereits erfasste Objekte (31, 33, 34, 36) nachverfolgt werden, und das Nachverfolgen dieser Objekte (31, 33, 34, 36) durch eine korrigierte Koordinatentransformation dieser Objekte vereinfacht wird, mit den Schritten: a) Erfassen von Trägheitsmessgrößen mit am Fahrzeug (30) angebrachten Trägheitssensoren (3), die die Feststellung wenigstens einer der folgenden aktuellen Bewegungsgrößen der Eigenbewegung des Fahrzeugs erlauben: a1) Nickbewegung, a2) Gierbewegung, a3) Rollbewegung, b) Einbeziehen (23) von Korrekturdaten, die sich aus einer Auswertung der Trägheitsmessgrößen ergeben, in Berechnungen beim Nachverfolgen der bereits erfassten Objekte (31, 33, 34, 36), und c) Weiterführen der Kontrolle von bereits erfassten Objekten (31, 33, 34, 36), die während einer vorbestimmten Zeitspanne aus dem Erfassungsbereich wenigstens eines Sensors verschwunden sind, wobei Sicherheitsfunktionen aufgrund der Annäherung des Fahrzeugs (30) an ein momentan nicht im Erfassungsbereich eines Sensors liegenden Objekts (34, 31) ausgelöst werden, wenn eine Prädizierung (38, 35) des entsprechenden Objektzustandes unter Berücksichtigung der Eigenbewegung des Fahrzeugs (30) eine Kollision wahrscheinlich erscheinen lässt. A method for detecting the surroundings of a vehicle (30) in current driving situations in traffic, in which objects (31, 33, 34, 36) already detected from the surroundings are tracked, and the tracking of these objects (31, 33, 34, 36) by a Corrected coordinate transformation of these objects is simplified, with the steps: a) Acquisition of inertia measured variables with inertia sensors (3) attached to the vehicle (30), which allow the determination of at least one of the following current movement variables of the vehicle's own movement: a1) pitching movement, a2) yawing movement , a3) rolling motion, b) inclusion (23) of correction data, which result from an evaluation of the inertia measured variables, in calculations when tracking the objects (31, 33, 34, 36) that have already been detected, and c) continuing the control of objects (31, 33) that have already been detected , 34, 36), which have disappeared from the detection area of at least one sensor during a predetermined period of time, safety functions being triggered due to the approach of the vehicle (30) to an object (34, 31) currently not in the detection area of a sensor when a Prediction (38, 35) of the corresponding object state, taking into account the vehicle's own movement (30), makes a collision appear likely. Verfahren nach Anspruch 1, bei dem als Trägheitssensoren Drehratensensoren und/oder Beschleunigungssensoren verwendet werden.Procedure according to Claim 1 , in which rotation rate sensors and / or acceleration sensors are used as inertia sensors. Verfahren nach Anspruch 1, bei dem ein Objektzustand (35, 37, 38, 40) aus Sicht des sensortragenden Fahrzeugs (30) unter Einbeziehung der Korrekturdaten prädiziert wird.Procedure according to Claim 1 , in which an object state (35, 37, 38, 40) is predicted from the point of view of the sensor-carrying vehicle (30) taking the correction data into account. Verfahren nach einem der Ansprüche 1 bis 3, enthaltend den weiteren Schritt des Bewertens der sensorisch erfassten Fahrsituation zum Zwecke des Einleitens situationsangepasster Maßnahmen.Method according to one of the Claims 1 until 3 , containing the further step of evaluating the driving situation detected by sensors for the purpose of initiating measures adapted to the situation. Verfahren nach Anspruch 4, enthaltend den Schritt des Auslösens von Sicherheitsfunktionen des Fahrzeugs (30).Procedure according to Claim 4 , comprising the step of triggering safety functions of the vehicle (30). Verfahren nach einem der Ansprüche 1 bis 5, wobei auch Fahrstreifenbegrenzungen (31, 33) erfasst und deren Projektionen (35, 37) gebildet werden.Method according to one of the Claims 1 until 5 , whereby lane boundaries (31, 33) are also detected and their projections (35, 37) are formed. Verfahren nach Anspruch 1, weiter enthaltend den Schritt: Eingreifen in die Fahrdynamik des Fahrzeugs (30) durch Betätigung vorbestimmter Aktuatoren, wenn sich aus der Bewertung zwingend ergibt, dass sich ohne ein Eingreifen ein Unfall mit großer, vorgegebener Wahrscheinlichkeit ereignen würde.Procedure according to Claim 1 , further comprising the step: Intervening in the driving dynamics of the vehicle (30) by actuating predetermined actuators, if the evaluation necessarily shows that an accident would occur with a high, predetermined probability without intervention. Computergestütztes Fahrer-Assistenzsystem (5) enthaltend technische Einrichtungen (1, 3, 7, 11, 13, 15, 19, 21, 23) zur Durchführung eines der Verfahren nach einem der vorstehenden Ansprüche.Computer-aided driver assistance system (5) containing technical devices (1, 3, 7, 11, 13, 15, 19, 21, 23) for carrying out one of the methods according to one of the preceding claims. Fahrerassistenzsystem (5) nach Anspruch 8, enthaltend eine Schnittstelle (58, 60, 62) zur Verarbeitung der von Trägheitssensoren erfassten Daten.Driver assistance system (5) Claim 8 , containing an interface (58, 60, 62) for processing the data acquired by inertial sensors.
DE10346573.1A 2003-10-07 2003-10-07 Environment detection with compensation of self-movement for safety-critical applications Expired - Fee Related DE10346573B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10346573.1A DE10346573B4 (en) 2003-10-07 2003-10-07 Environment detection with compensation of self-movement for safety-critical applications

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10346573.1A DE10346573B4 (en) 2003-10-07 2003-10-07 Environment detection with compensation of self-movement for safety-critical applications

Publications (2)

Publication Number Publication Date
DE10346573A1 DE10346573A1 (en) 2005-05-04
DE10346573B4 true DE10346573B4 (en) 2021-07-29

Family

ID=34399339

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10346573.1A Expired - Fee Related DE10346573B4 (en) 2003-10-07 2003-10-07 Environment detection with compensation of self-movement for safety-critical applications

Country Status (1)

Country Link
DE (1) DE10346573B4 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005038603A1 (en) 2005-08-16 2007-02-22 Robert Bosch Gmbh Method and device for tracking an object in an image sequence
DE102006046903A1 (en) * 2006-10-04 2008-04-10 Robert Bosch Gmbh Driver assistance system and method for tracking located objects
DE102009037170B4 (en) * 2009-08-03 2019-12-19 Deutsches Zentrum für Luft- und Raumfahrt e.V. Method for sending an acoustic signal
DE102020202966A1 (en) 2020-03-09 2021-09-09 Volkswagen Aktiengesellschaft Safety device, method for correcting a warning device and motor vehicle

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19650863C1 (en) 1996-12-07 1998-04-16 Bosch Gmbh Robert Method of detecting distance sensor vertical adjustment error
DE19832079A1 (en) 1998-07-16 2000-01-20 Volkswagen Ag Method and device for detecting objects in the vicinity of a motor vehicle
US6157294A (en) 1997-12-27 2000-12-05 Honda Giken Kogyo Kabushiki Kaisha Vehicle obstacle detecting system
DE10030421A1 (en) 1999-06-23 2001-01-04 Honda Motor Co Ltd Motor vehicle environment monitoring system detects object near vehicle from image produced by imaging device on vehicle, derives relative position, vector, collision probability
DE10033599A1 (en) 1999-07-13 2001-02-01 Honda Motor Co Ltd Position detection arrangement for vehicle, calculating tilt-dependent correction value based on shifting of position of number of objects in height direction
US20020130953A1 (en) 2001-03-13 2002-09-19 John Riconda Enhanced display of environmental navigation features to vehicle operator
DE10138641A1 (en) 2001-08-07 2003-02-20 Ibeo Automobile Sensor Gmbh Fast and reliable determination of a model or optimum-driving course for a motor vehicle based on information relating to the actual path of a road obtained using an optoelectronic scanning or sensing system
DE10148062A1 (en) 2001-09-28 2003-04-10 Ibeo Automobile Sensor Gmbh Localizing system for objects uses transmitter for pulsed emission of laser beams and receiver with sensor to pick up reflected beam pulses and to analyze them regarding their execution time

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19650863C1 (en) 1996-12-07 1998-04-16 Bosch Gmbh Robert Method of detecting distance sensor vertical adjustment error
US6157294A (en) 1997-12-27 2000-12-05 Honda Giken Kogyo Kabushiki Kaisha Vehicle obstacle detecting system
DE19832079A1 (en) 1998-07-16 2000-01-20 Volkswagen Ag Method and device for detecting objects in the vicinity of a motor vehicle
DE10030421A1 (en) 1999-06-23 2001-01-04 Honda Motor Co Ltd Motor vehicle environment monitoring system detects object near vehicle from image produced by imaging device on vehicle, derives relative position, vector, collision probability
DE10033599A1 (en) 1999-07-13 2001-02-01 Honda Motor Co Ltd Position detection arrangement for vehicle, calculating tilt-dependent correction value based on shifting of position of number of objects in height direction
US20020130953A1 (en) 2001-03-13 2002-09-19 John Riconda Enhanced display of environmental navigation features to vehicle operator
DE10138641A1 (en) 2001-08-07 2003-02-20 Ibeo Automobile Sensor Gmbh Fast and reliable determination of a model or optimum-driving course for a motor vehicle based on information relating to the actual path of a road obtained using an optoelectronic scanning or sensing system
DE10148062A1 (en) 2001-09-28 2003-04-10 Ibeo Automobile Sensor Gmbh Localizing system for objects uses transmitter for pulsed emission of laser beams and receiver with sensor to pick up reflected beam pulses and to analyze them regarding their execution time

Also Published As

Publication number Publication date
DE10346573A1 (en) 2005-05-04

Similar Documents

Publication Publication Date Title
DE102013200132B4 (en) Lane keeping system for a vehicle
EP3160813B1 (en) Method for producing a model of the surroundings of a vehicle
DE102005009814B4 (en) Vehicle condition detection system and method
DE112012007157B4 (en) Driving assistance device and driving assistance method
EP2054869B1 (en) Method and apparatus for driver assistance through the production of lane information for supporting or replacing lane information from a video-based lane information device
DE102020127043A1 (en) SECURITY SYSTEM FOR ONE VEHICLE
DE102013112459B4 (en) An apparatus and method for assessing a probability of a collision between a vehicle and a target, vehicle collision avoidance system, and methods for avoiding a collision between a vehicle and a target
EP3830522B1 (en) Method for estimating the quality of localisation in the self-localisation of a vehicle, device for carrying out the method, vehicle, and computer program
DE102012216386A1 (en) Method for operating a driver assistance system of a vehicle
DE102020112686A1 (en) Adaptive autonomous emergency braking system taking into account the steering path and control method for the same
DE102020111856A1 (en) Vehicle SCC system based on complex information and methods for controlling the same
DE102018125207A1 (en) VEHICLE INTERNAL TRANSPORT ASSISTANCE
DE102011014081A1 (en) Method for detecting a turning maneuver
DE102015009849B4 (en) Vehicle-type radar system and method for removing a target of no interest
DE102017223431B4 (en) Method for assisting a driver of a motor vehicle when overtaking; motor vehicle; as well as system
DE102017111468A1 (en) A vehicle system and method for determining whether a vehicle occupant has sensed an off-vehicle object
DE102017205495A1 (en) Device and method for focusing sensors in the driving dynamic limit range for a motor vehicle
DE102016203746A1 (en) Method and device for detecting a wrong-way driver vehicle
DE102014105374B4 (en) Driver assistance system
DE102017108248A1 (en) STREET FEATURE RECOGNITION WITH A VEHICLE CAMERA SYSTEM
DE102008025773A1 (en) Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition
DE102014008897A1 (en) Method for determining an expected time for a collision between a first motor vehicle and a second motor vehicle and associated motor vehicle
DE102018219760A1 (en) Collision prediction system
DE102016002232A1 (en) Method for operating a motor vehicle
DE102018003130A1 (en) Testing a vehicle with simulated road users

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee