WO2017012743A1 - Verfahren zur plausibilisierung einer ansteuerentscheidung für sicherheitsmittel - Google Patents

Verfahren zur plausibilisierung einer ansteuerentscheidung für sicherheitsmittel Download PDF

Info

Publication number
WO2017012743A1
WO2017012743A1 PCT/EP2016/061650 EP2016061650W WO2017012743A1 WO 2017012743 A1 WO2017012743 A1 WO 2017012743A1 EP 2016061650 W EP2016061650 W EP 2016061650W WO 2017012743 A1 WO2017012743 A1 WO 2017012743A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature
collision
detected
vehicle
release
Prior art date
Application number
PCT/EP2016/061650
Other languages
English (en)
French (fr)
Inventor
Heiko Freienstein
Joerg Moennich
Josef Kolatschek
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to US15/743,365 priority Critical patent/US20180201261A1/en
Priority to CN201680041537.XA priority patent/CN107848480A/zh
Publication of WO2017012743A1 publication Critical patent/WO2017012743A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Definitions

  • the invention relates to a method for plausibility of a
  • Control decision for safety means for a vehicle.
  • the corresponding computer program As well as the corresponding computer program, electronic storage medium and the corresponding device.
  • AI is a device for determining a mass of an environment located, detected by means of environmental sensors
  • the core of the invention is the safe plausibility of an impending impact with a relevant crash or collision severity from the detection of a regulatory normalized feature of a collision object.
  • the invention is based on the recognition that a regulatory normalized feature of a collision object, such as, for example, a license plate number for two-lane vehicles requiring registration, guarantees a potentially dangerous minimum mass in the event of a crash.
  • a regulatory normalized feature of a collision object such as, for example, a license plate number for two-lane vehicles requiring registration
  • the feature in high-resolution images is a perfect object for video-based detection, especially when short-range video sensor systems are used. It is suitable for mono cameras and stereo video cameras to make highly reliable decisions. From special calculations can from the
  • Positions in image series or in the optical flow, the impact zone and the collision velocity are obtained or at least estimated more accurately.
  • lidar, ultrasound and radar sensor systems can be used instead of video sensor systems.
  • Decisive for the sensor technology which is generally called environment sensor technology, is that detection of a regulatory normalized feature, such as, for example, a license plate number, is possible.
  • Collision object are set. From the positions of the regulatory normalized feature in at least two consecutive images, a minimum crash severity or collision severity can be reliably predicted. This method is particularly suitable as an independent safety path for PreCrash passive vehicle safety applications.
  • PreCrash applications are referred to in the context of Passive Safety for Vehicles applications prior to the actual collision, i. before the first
  • the presented method can be used wherever a significant intervention in the vehicle trajectory is made.
  • Significant is any intervention involving an acceleration of more than 0.5 g,
  • activation of "aggressive" reversible restraint devices can also be advantageously protected by the methods presented here.
  • Active restraint devices are understood here to mean those restraining devices which have a significant effect on the position or orientation of a vehicle occupant, including at least belt tensioners which act with forces of more than 800 kN ,
  • the proposed method is a simple method that can be used as a safety path for far more complex algorithms or methods for characterizing the collision severity from the aforementioned features or input variables for the evaluation of front, side and rear collisions.
  • a safety path is particularly meaningful if it is simple and safe.
  • the invention is based on the recognition that regulatory normalized features, such as. For example, license plates, are highly specific and therefore by
  • a simple task is the reliable detection of a well-known pattern in a signal with a high signal-to-noise ratio.
  • Video image is one such task because the manifestations of license plates are subject to clear guidelines (i.e., regulatory normalized) and characteristics are optimized for visibility and readability. Furthermore, license plates may not be varied in any way.
  • the presented method is based on the steps of detecting a regulatory normalized feature of a collision object by means of a
  • the presented method has a number of embodiments.
  • the environmental sensor system used has a detection range, the detection range being at least critical and non-critical areas, wherein in the step of detecting an optical flow of the detection area is detected or temporally
  • the detected feature for example the vehicle registration number, must be localized in the video image in special regions (critical regions) in image sequences (at least two images) or an optical flow in order to detect or make plausible an unavoidable impact with relevant speed.
  • the regulatory normalized feature in the image or in the coverage area can be detected by template matching methods (correlation of templates with the image or the coverage area) or other methods that, for example, analyze the gray values such as Maximally Stable Extremal Regions (MSERs) become.
  • Suitable templates are stored in the memory of the evaluation unit.
  • a size or a distortion of the feature or a position in the detection range of the feature is detected and from the size and / or the distortion or the position
  • Collision severity or a collision time or an impact angle or an impact point are determined on the vehicle, the release in
  • the regulatory normalized feature is only of a certain size /
  • Orientations / distortions accepted in the picture If the rotation / shear etc. goes beyond a certain extent, the plausibility is not given, ie the activation is not released.
  • threshold values for the respective attributes are predetermined.
  • a release takes place only when the feature has been detected with a predetermined quality, in particular when the contrast of the detected feature exceeds a predetermined threshold.
  • the regulatory normalized features are accepted only with sufficient contrast or image quality. If the contrast or the image quality decreases, the plausibility is not given (threshold comparison), i. E. the control is not enabled. This ensures that a plausibility check with a minimum quality is given.
  • This embodiment advantageously avoids that images of vehicles lead to a release. There no
  • a method for optical character recognition is applied to the detected characteristic and the release takes place as a function of the method for optical character recognition.
  • Optical character recognition methods also known as Optical Character Recognition (OCR)
  • OCR Optical Character Recognition
  • OCR Optical Character Recognition
  • the syntax of the recognized characters is checked for correctness. If there is a violation of the syntax specifications, the plausibility is not given, ie the control is not enabled.
  • the detected characteristic is correlated with other features of the motor vehicle and a release takes place when the correlation is conclusive.
  • the environment of the detection area is analyzed. There are, for example.
  • the regulatory normalized feature is only accepted if it can be found in the sequence of images in given regions in specific sequences. If the order is broken, the plausibility is not given.
  • the dynamic estimation can be secured by comparison with the motion blur of the regulatory normalized feature.
  • the method has an additional step of determining the current position of the vehicle by means of a
  • Device for determining position, in particular by means of a GNS system, wherein the step of detecting depends on the determined position of the vehicle.
  • the probability of a collision can be derived empirically from the vehicle license plate of the crash opponent.
  • a probability as a (non-) linear function of the distance is conceivable.
  • a surround environment sensor system in particular a stereo video sensor system, is used as surroundings sensor, it being possible to determine a distance of the regulatory normalized feature from the disparity of the detected feature in the respective stereo images. From this determined distance, a distance of the collision object is estimated. In the enabling step, the determined or estimated distance is considered, i. The release also takes place as a function of the determined or estimated distance.
  • Fig. 1 is a block diagram of an embodiment of a method for making a drive decision for security means
  • FIG. 2 is a block diagram of a method for driving
  • FIG. 3 is a flowchart of a method for video-based license plate recognition 4 shows a representation of characteristic features of a vehicle
  • Fig. 5 is a schematic division of a detection range of a
  • FIG. 1 illustrates, by way of a block diagram of one embodiment of a method for making a security decision drive decision, the components of an embodiment of a method for making a vehicle security drive decision.
  • the two main components are collision severity determination 111 and collision prediction 112.
  • various input variables 12 are necessary; including the relative velocity 121, the mass of the collision object 122, the rigidity of the collision object 123, the collision type or the collision geometry 124.
  • Known collision types or geometries are the frontal collision (filling frontal), the collision with offset against a deformable barrier (offset Deformable Barrier, ODB), etc.
  • collision prediction 112 will include the
  • the results of the two links 131, 132 are linked together 133 in the illustrated embodiment in order to arrive at the conclusion as to whether a collision will take place with an energy input 134 relevant for triggering.
  • the illustrated embodiment represents only one possible
  • Embodiment of a driving method for security means Embodiment of a driving method for security means.
  • FIG. 2 shows a block diagram of an embodiment of a
  • About environment sensors 21, 22 are sensor signals, for example.
  • Results 24 of the fusion module such as the estimated collision time, the estimated
  • Collision probability 125 and the estimated collision severity lead to a triggering decision 25.
  • a plausibility check is carried out via a separate safety path 26.
  • the sensor signals of the video sensor system 21 flow into the safety path 26.
  • the video signals 21 in the illustrated embodiment are identical to the video signals 21 in the illustrated embodiment.
  • the result of the safety path26 is the release of the triggering procedure. This release can be made, for example, by setting a corresponding flag. It would also be conceivable to generate a suitable signal. Since the present method should also be used in the context of PreCrash applications, it is also conceivable that a positive plausibility check for a predetermined time is held up. Only if both the evaluation path 29 and the
  • Security path 26 come to the result that a control of the safety means is required, it will come to trigger 31 of the safety means.
  • step 301 a license plate number is detected as a regulatory normalized feature.
  • step 302 the vehicle front mask is located.
  • step 303 an analysis of the detected vehicle license plate and the vehicle front mask is performed. in the
  • Step 303 is a classification 304 of the analysis. Results of the
  • Classification step 304 may include the determination of relative velocity 121, mass 122, and stiffness 123 of FIG
  • Collision object the collision type or geometry 124 and the collision
  • Collision probability 125 (see Fig. 1).
  • FIG. 4 shows by way of example how the localization of the vehicle license plate 40 includes the section 41 to be examined for analyzing the vehicle front mask in FIG
  • the license plate 40 can be used as a landmark to perform a deeper analysis.
  • Criteria for the classifier could be the residuum (threshold comparison) of the reconstruction or the analysis of the location in the feature space.
  • discriminatory hypersurfaces can be implemented and queried
  • the region of interest 41 can also comprise the entire vehicle after analysis. Here are powerful methods of data-driven
  • Image segmentation can be used (Water-Shed Algorithm, Growing
  • Regions, edge features, template matching methods, etc. The results of the segmentation can be compared with vehicle outlines.
  • the detection range 500 is in non-critical (1,1),
  • a circle with a 1 is the position of the feature at a first time.
  • a circle with a 2 is the position of the feature at a second time. The arrow between a feature at a first time and a second time represents the
  • Movement of the detected feature from the first to the second time point For the plausibility of a collision or an imminent collision, the feature movements within critical areas (2,2), (2,4) or from a non-critical (1,1 ), (2,1), (1,2), (1,3), (1,4), (2,4) into a critical range (2,2), (2,4).
  • the gray scale image is divided into areas. The locations are assigned to these areas.
  • the acceptance rules belonging to FIG. 5 are:
  • the divisions and transitions are determined so that the transitions unavoidable collisions and successful evasive maneuvers can be clearly distinguished.

Abstract

Verfahren (26, 300) zur Plausibilisierung einer Ansteuerentscheidung fur Sicherheitsmittel fur ein Fahrzeug, mit den Schritten: - Erfassen (21, 301) eines regulatorisch normierten Merkmals eines Kollisionsobjekts mittels einer Umfeldsensorik z. B. einer Video-Kamera; und Freigeben (28, 305) der Ansteuerentscheidung abhängig von dem erfassten Merkmal, z. B. von einem KFZ-Kennzeichen, Markenzeichen oder Emblem.

Description

Beschreibung
Titel
VERFAHREN ZUR PLAUSIBILISIERUNG EINER ANSTEUERENTSCHEIDUNG FÜR SICHERHEITSM ITTEL
Die Erfindung betrifft ein Verfahren zur Plausibilisierung einer
Ansteuerentscheidung für Sicherheitsmittel für ein Fahrzeug. Sowie das entsprechende Computerprogramm, elektronische Speichermedium und die entsprechende Vorrichtung.
Stand der Technik
Aus der DE 103 37 619 AI ist eine Einrichtung zur Bestimmung einer Masse eines sich im Umfeld befindlichen, mittels Umfeldsensorik erfassten
Kraftfahrzeugs bekannt, wobei die Bestimmung der Masse des Kraftfahrzeugs auf der Erfassung des Fahrzeugkennzeichens des Kraftfahrzeugs und anschließendem Abgleich des erfassten Fahrzeugkennzeichens mit einer Datenbank, die eine Zuordnung des Fahrzeugkennzeichens zu der Masse des Kraftfahrzeugs beinhaltet, beruht.
Aus Internet-Vision Based Vehicle Model Query System Using Eigenfaces and Pyramid of Histogram of Oriented Gradients, Anakavej et al., International Conference on Signal-Image Technology & Internet- Based System (SITIS), 2013 ist ein Verfahren zur Video-basierten KFZ-Kennzeichenerkennung bekannt.
Der Nachteil des aus dem Stand der Technik bekannten Verfahrens ist, dass die Masse zwar ein wichtiger Teil der Crash- bzw. Kollisionsschwerebestimmung ist, jedoch nur ein Teil der Crashschwere bzw. Kollisionsschwere darstellt. Weitere Parameter ergeben sich aus Geschwindigkeit und Crashgeometrie, die in dem bekannten Verfahren nicht einbezogen werden.
Zudem ist der Einsatz einer großen Datenbank mit einer Zuordnung von
Kennzeichen zur Masse eines Kraftfahrzeugs aus Datenschutzgründen und aus
Datenübertragungsgründen nicht unproblematisch bzw. zumindest nicht unumstritten.
Offenbarung der Erfindung
Kern der Erfindung ist die sichere Plausibilisierung eines bevorstehenden Aufpralls mit einer relevanten Crash- bzw. Kollisionsschwere aus der Erfassung eines regulatorisch normierten Merkmals eines Kollisionsobjekts.
Die Erfindung basiert auf der Erkenntnis, dass ein regulatorisch normiertes Merkmal eines Kollisionsobjekts, wie bspw. ein KFZ-Kennzeichen bei zweispurigen zulassungspflichtigen Fahrzeugen, eine im Crash potentiell gefährliche Mindestmasse garantiert. Das Kennzeichen in hochaufgelösten Bildern ist ein perfektes Objekt für videobasierte Detektion, insbesondere auch dann wenn kurzreichweitige Videosensoriken zum Einsatz kommen. Es ist für Mono-Kameras und Stereo-Video Kameras einsetzbar, um hochzuverlässige Entscheidungen zu treffen. Aus speziellen Berechnungen kann aus den
Positionen in Bildserien bzw. im optischen Fluss die Aufprallzone und die Kollisionsgeschwindigkeit gewonnen bzw. zumindest genauer abgeschätzt werden.
Alternativ können anstelle von Videosensoriken auch Lidar-, Ultraschall- und Radarsensoriken zum Einsatz kommen. Ausschlaggebend für die Sensorik, die allgemein Umfeldsensorik genannt wird, ist, dass eine Erfassung eines regulatorisch normierten Merkmals, wie bspw. eines KFZ-Kennzeichens, möglich ist.
Weitere regulatorisch normierte Merkmale eines Fahrzeugs sind Warntafeln oder Gefahrenzettel. Auch denkbar sind Markenzeichen oder Embleme. Aus der Detektion des regulatorisch normierten Merkmals an einer bestimmten Position im Bild kann die Objektklasse als relevantes Crashobjekt bzw.
Kollisionsobjekt gesetzt werden. Aus den Positionen des regulatorisch normierten Merkmals in mindestens zwei aufeinanderfolgenden Bildern kann eine minimale Crashschwere bzw. Kollisionsschwere sicher vorhergesagt werden. Dieses Verfahren ist besonders als unabhängiger Sicherheitspfad für PreCrash Anwendungen der Passiven Sicherheit für Fahrzeuge geeignet.
PreCrash-Anwendung werden im Kontext der Passiven Sicherheit für Fahrzeuge Anwendungen genannt, die vor der eigentlichen Kollision, d.h. vor dem ersten
Kontakt mit dem Kollisionsobjekt angewendet werden.
Darüber hinaus lässt sich das vorgestellt Verfahren überall dort einsetzen, wo ein erheblicher Eingriff in die Fahrzeugtrajektorie vorgenommen wird. Erheblich ist dabei jeglicher Eingriff, der eine Beschleunigung von mehr als 0,5 g,
insbesondere mehr als 1 g hervorruft. Dabei ist es unerheblich, ob der Eingriff längs (bspw. Bremsen, Beschleunigen) oder quer (bspw. Ausweichen,
Spurhalten) zur Längserstreckung des Fahrzeugs erfolgt. Auch die Ansteuerung von„aggressiven" reversiblen Rückhaltemitteln kann durch da vorgestellt Verfahren vorteilhaft abgesichert werden. Unter aggressiven Rückhaltemitteln werden vorliegend solche Rückhaltemittel verstanden, die erheblich auf die Position oder Ausrichtung eines Fahrzeuginsassen einwirken. Dazu zählen zumindest Gurtstraffer, die mit Kräften über 800 kN angreifen.
Das vorgestellte Verfahren ist sehr gut nachvollziehbar. Somit kann die
Zuverlässigkeit argumentativ ohne extrem langen Dauerlauf über sogenannte Evidenzen (Beweisführung via Expertenwissen) belegt werden. Die fundamentale Aufgabe der Plausibilisierung von Ansteuerentscheidungen, d.h. der Freigabe der Ansteuerung von Sicherheitsmitteln, ist die
Crashschwerebestimmung. Sie ist eine Funktion/Kombination aus
Aufprallgeschwindigkeit, Massen und Massenverhältnissen sowie Steifigkeiten und der Crashgeometrie. Eine Auslösung von irreversiblen Rückhaltemitteln wie Gurtstraffer oder dem Airbag verlangt vom System eine„ultra high dependibility", d.h. höchste Zuverlässigkeit. Mit anderen Worten, die Wahrscheinlichkeit einer relevanten Kollision muss nahezu 100 % betragen, um eine Auslösung, d.h. Ansteuerung, zu rechtfertigen.
Das vorgestellte Verfahren ist ein einfaches Verfahren, dass als Sicherheitspfad für weitaus komplexere Algorithmen bzw. Verfahren zur Charakterisierung der Kollisionsschwere aus den zuvor genannten Merkmalen bzw. Eingangsgrößen für die Bewertung von Front-, Seiten- und Heckkollisionen genutzt werden kann. Ein Sicherheitspfad ist dann besonders aussagekräftig, wenn er einfach und sicher ist.
Die Erfindung basiert auf der Erkenntnis, dass regulatorisch normierte Merkmale, wie bspw. KFZ-Kennzeichen, hochspezifisch sind und daher durch
Umfeldsensoriken, insbesondere durch Videosensoriken, sehr gut detektierbar sind.
Eine einfache Aufgabe ist die sichere Detektion eines genau bekannten Musters in einem Signal mit einem hohen Signal-zu-Rausch-Verhältnis. Die sichere Detektion (Lokalisation, Klassifikation) eines KFZ-Kennzeichens in einem
Videobild ist eine solche Aufgabe, da die Erscheinungsformen von KFZ- Kennzeichen klaren Richtlinien unterliegen (d.h. regulatorisch normiert) und Kennzeichen auf Erkennbarkeit und Lesbarkeit optimiert sind. Des Weiteren dürfen Kennzeichen nicht in beliebiger Weise variiert werden.
Das vorgestellte Verfahren basiert auf den Schritten des Erfassens eines regulatorisch normierten Merkmals eines Kollisionsobjekts mittels einer
Umfeldsensorik und dem
Freigeben der Ansteuerentscheidung abhängig von dem erfassten Merkmal.
Ausgehend von diesen Grundschritten weist das vorgestellte Verfahren eine Reihe von Ausführungsformen auf.
In einer vorteilhaften Ausführungsform weist die eingesetzte Umfeldsensorik einen Erfassungsbereich auf, wobei der Erfassungsbereich zumindest in kritische und nicht-kritische Bereiche aufgeteilt ist, wobei im Schritt des Erfassens ein optischer Fluss des Erfassungsbereichs erfasst wird oder zeitlich
aufeinanderfolgend der Erfassungsbereich mehrfach erfasst wird, wobei eine Freigabe der Ansteuerentscheidung dann erfolgt, wenn das Merkmal mit einer vorbestimmten Mindestgröße erfasst wird und wenn entweder das Merkmal in einem kritischen Bereich erfasst wird oder eine Bewegung des Merkmals von einem nicht-kritischen Bereich in einen kritischen Bereich erfasst wird.
Das erfasste Merkmal bspw. das KFZ-Kennzeichen muss im Videobild in speziellen Regionen (kritischen Bereichen) in Bildfolgen (mindestens zwei Bilder) oder einem optischen Fluss lokalisiert werden, um einen unvermeidbaren Aufprall mit relevanter Geschwindigkeit zu detektieren bzw. zu plausibilisieren.
Das regulatorisch normierte Merkmal im Bild bzw. im Erfassungsbereich kann über Template-Matching Verfahren (Korrelation von Templates mit dem Bild bzw. dem Erfassungsbereich) oder über andere Verfahren, die beispielsweise die Grauwerte analysieren wie bspw. Maximally Stable Extremal Regions (MSERs), erkannt werden. Geeignete Templates sind im Speicher der Auswerteeinheit hinterlegt.
In einer vorteilhaften Ausführungsform wird eine Größe bzw. eine Verzerrung des Merkmals bzw. eine Position in dem Erfassungsbereich des Merkmals erfasst und aus der Größe und/oder der Verzerrung bzw. der Position ein
Kollisionsschwere bzw. ein Kollisionszeitpunkt bzw. ein Auftreffwinkel bzw. eine Auftreffpunkt an dem Fahrzeug bestimmt werden, wobei die Freigabe in
Abhängigkeit von der Kollisionsschwere bzw. dem Kollisionszeitpunkt bzw. dem Auftreffwinkel bzw. dem Auftreffpunkt erfolgt.
Das regulatorisch normierte Merkmal wird nur in gewissen Größen /
Orientierungen / Verzerrungen im Bild akzeptiert. Geht die Rotation / Scherung etc. über ein gewisses Maß hinaus, wird die Plausibilität nicht gegeben, d.h. die Ansteuerung wird nicht freigegeben. Dazu werden Schwellenwerte für die jeweiligen Attribute (Größe, Orientierung, Verzerrung) vorbestimmt. In einer vorteilhaften Ausführungsform erfolgt eine Freigabe nur dann, wenn das Merkmal mit einer vorbestimmten Güte erfasst wurde, insbesondere, wenn der Kontrast des erfassten Merkmals einen vorbestimmten Schwellenwert überschreitet.
Durch diese Ausführungsform wird in vorteilhafter Weise vermieden, dass eine Plausibilisierung aufgrund von abgerissenen KFZ-Kennzeichen auf der Fahrbahn erfolgt. Da solche Kennzeichen über die maximal mögliche Scherung bzw.
Rotation hinausgehen.
Die regulatorisch normierten Merkmale werden nur bei ausreichendem Kontrast bzw. Bildqualität akzeptiert. Sinkt der Kontrast bzw. die Bildqualität, wird die Plausibilität nicht gegeben (Schwellenwertvergleich), d.h. die Ansteuerung wird nicht freigegeben. Dadurch wird sichergestellt, dass eine Plausibilisierung mit einer Mindestgüte gegeben wird.
Durch diese Ausführungsform wird in vorteilhafter Weise vermieden, dass Abbildungen von Fahrzeugen zur einer Freigabe führen. Da keine
Plausibilisierung bei flatternden Zeitungsausschnitten wegen der geforderten zeitliche Entwicklung und Anforderung an Kontrast und die Bildqualität vorliegt.
In einer vorteilhaften Ausführungsform wird auf das erfasste Kennzeichen ein Verfahren zur optischen Zeichenerkennung angewendet wird und die Freigabe erfolgt abhängig von dem Verfahren zur optischen Zeichenerkennung.
Verfahren zur optischen Zeichenerkennung, auch Optical Character Recognition (OCR) genannten, erkennen die für das Kfz- Kennzeichen verwendeten Zeichen. Durch die Erkennung der Zeichen kann auf einfache Weise sichergestellt werden, dass es sich bei den erfassten Merkmalen um ein (gültiges) Kfz- Kennzeichen handelt. Prinzipiell ist die Anwendung eines Verfahrens zur optischen Zeichenerkennung auch auf andere regulatorisch normierte Merkmale anwendbar. In einer vorteilhaften Variante dieser Ausführungsform wird die Syntax der erkannten Zeichen auf Korrektheit geprüft. Bei Verstoß gegen die Syntax- Vorgaben, wird die Plausibilität nicht gegeben, d.h. d.h. die Ansteuerung wird nicht freigegeben.
In einer vorteilhaften Ausführungsform wird das erfasste Kennzeichen mit weiteren Merkmalen des Kraftfahrzeugs korreliert und eine Freigabe erfolgt dann, wenn die Korrelation schlüssig ist.
Ausgehend von dem erfassten, regulatorisch normierten Merkmal wird die Umgebung des Erfassungsbereichs analysiert. Es werden bspw.
Symmetrieuntersuchungen durchgeführt oder Eigenbildüberprüfungen
durchgeführt, um Fahrzeugvorderwagen- bzw. Fahrzeugheck-spezifische
Merkmale zu bestimmen. Werden diese Merkmale nicht gefunden, wird die Plausibilität nicht gegeben, d.h. die Ansteuerung wird nicht freigegeben.
Verfahren zur Überprüfung der Umgebung des Erfassungsbereichs nach
Kraftfahrzeug-spezifischen Merkmalen sind als Standardverfahren aus der Literatur bekannt.
Das regulatorisch normierte Merkmal wird nur akzeptiert, wenn es sich in der Bildfolge in vorgegebenen Regionen in bestimmten Reihenfolgen auffinden lässt. Wird die Reihenfolge verletzt, wird die die Plausibilität nicht gegeben. Optional kann die Dynamikschätzung noch durch Abgleich mit der Bewegungsunschärfe des regulatorisch normierten Merkmals abgesichert werden.
In einer vorteilhaften Ausführungsform weist das Verfahren einen zusätzlichen Schritt des Ermitteins der aktuellen Position des Fahrzeugs mittels einer
Vorrichtung zur Positionsbestimmung, insbesondere mittels eines GNS-Systems, auf, wobei der Schritt des Erfassens von der ermittelten Position des Fahrzeugs abhängt.
Die Wahrscheinlichkeit, eines Zusammenstoßes kann empirisch aus dem KFZ- Kennzeichen des Crashgegners abgeleitet. Eine Wahrscheinlichkeit als (nicht-) lineare Funktion der Distanz ist denkbar. Beispiel: Die höchste Wahrscheinlichkeit besteht bei lokalen Nummernschildern. Die niedrigste bei entfernten ausländischen Kennzeichen. Die Schwelle wird auf Basis von regionalen Crashpaarungen angepasst. Darüber hinaus ist auch denkbar anhand der bestimmten Position die Templates für ein eingesetztes Template-Matching- Verfahren einzusetzen. So müssen nicht zunächst die erfassten Signale mit allen verfügbaren Templates verglichen werden, sondern zunächst mit denen, die für die bestimmte Position am relevantesten sind. Dadurch wird das eingesetzte Template-Matching-Verfahren deutlich beschleunigt.
In einer weiteren vorteilhaften Ausführungsform wird als Umfeldsensorik eine Stereo-Umfeldsensorik, insbesondere eine Stereo-Video-Sensorik, verwendet, wobei aus der Disparität des erfassten Merkmals in den jeweiligen Stereobildern eine Distanz des regulatorisch normierten Merkmals bestimmt werden kann. Aus dieser bestimmten Distanz wird eine Distanz des Kollisionsobjekts abgeschätzt. Im Schritt der Freigabe wird die bestimmte bzw. die abgeschätzte Distanz berücksichtigt d.h. die Freigabe erfolgt auch in Abhängigkeit von der bestimmten bzw. abgeschätzten Distanz.
Vorteilhafte Ausführungsformen der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend beschrieben. In den Zeichnungen bezeichnen gleiche Bezugszeichen Komponenten bzw. Elemente, die gleiche bzw. analoge Funktionen ausführen.
Kurze Beschreibung der Zeichnungen
Es zeigen:
Fig. 1 ein Blockdiagramm einer Ausführungsform eines Verfahrens zum Treffen einer Ansteuerentscheidung für Sicherheitsmittel
Fig. 2 ein Blockdiagramm eines Verfahrens zur Ansteuerung von
Sicherheitsmitteln
Fig. 3 ein Ablaufdiagramm eines Verfahrens zur Video-basierten KFZ- Kennzeichenerkennung Fig. 4 eine Darstellung charakteristischer Merkmale eines Fahrzeugs
Fig. 5 eine schematische Einteilung eines Erfassungsbereichs einer
Umfeldsensorik
Fig. 1 verdeutlicht anhand eines Blockdiagramms einer Ausführungsform eines Verfahrens zum Treffen einer Ansteuerentscheidung für Sicherheitsmittel die Bestandteile einer Ausführungsform eines Verfahrens zum Treffen einer Ansteuerentscheidung für Sicherheitsmittel für ein Fahrzeug.
In Block 11 sind die zwei Hauptbestandteile Kollisionsschwerebestimmung 111 und Kollisionsvorhersage 112. Zu Kollisionsschwerebestimmung 111 sind diverse Eingangsgröße 12 nötig; darunter die Relativgeschwindigkeit 121, die Masse des Kollisionsobjekts 122, die Steifigkeit des Kollisionsobjekts 123, der Kollisionstyp bzw. die Kollisionsgeometrie 124. Bekannte Kollisionstypen bzw. - geometrien sind dabei die Frontalkollision (Füll Frontal), die Kollision mit Versatz gegen eine deformierbare Barriere (Offset Deformable Barrier; ODB), usw.
Für die Kollisionsvorhersage 112 wird unter anderem die
Kollisionswahrscheinlichkeit 125 als Eingangsgröße 12 verwendet.
Diese Eingangsgrößenl2 werden im Ansteuerungsverfahren 13 miteinander kombiniert. So werden in der dargestellten Ausführungsform die
Relativgeschwindigkeit 121 sowie der Kollisionstyp bzw. -geometrie 124 und die Kollisionswahrscheinlichkeit 125 miteinander verknüpft 131, mit dem Ziel zu ermitteln, ob ein relevanter Kollisionstyp 124a in einem relevanten Auftreffpunkt 125a eintreten wird. Des Weiteren werden die Masse des Kollisionsobjekts 122 und die Steifigkeit des Kollisionsobjekts 123 miteinander verknüpft 132.
Die Ergebnisse der beiden Verknüpfungen 131, 132 werden in der dargestellten Ausführungsform miteinander verknüpft 133, um zu dem Ergebnis zu kommen, ob eine Kollision mit einer für eine Auslösung relevanten Energieeintrag 134 stattfinden wird. Das dargestellte Ausführungsbeispiel stellt dabei lediglich eine mögliche
Ausführungsform eines Ansteuerverfahrens für Sicherheitsmittel dar.
Fig. 2 zeigt anhand eines Blockdiagramms eine Ausführungsform eines
Ansteuerverfahrens für Sicherheitsmittel eines Fahrzeugs mit einem
Sicherheitspfad.
Über Umfeldsensoriken 21, 22 werden Sensorsignale, bspw. ein optischer Fluss, Ergebnisse eines Patternmatchingverfahrens oder eines Klassifikators ausgehend von einer Videosensorik 21 mit nachgelagerter Auswertung der Videosignale oder Auswertung von Reflexen, Objekterkennung sowie
Trackingverfahren ausgehend von einer Radarsensorik mit nachgelagerter Auswertung 22, in eine Fusionsmodul 23 eingeführt.
In dem Fusionsmodul 23 kann ein Verfahren gemäß der Ausführungsform dargestellt in Fig. 1 ausgeführt werden. Ergebnisse 24 des Fusionsmoduls wie bspw. der abgeschätzte Kollisionszeitpunkt, die abgeschätzte
Kollisionswahrscheinlichkeit 125 sowie die abgeschätzte Kollisionsschwere führen zu einer Auslöseentscheidung 25.
Parallel zu der Auslöseentscheidung erfolgt eine Plausibilisierung über einen separaten Sicherheitspfad 26. In dem dargestellten Ausführungsbeispiel fließen in den Sicherheitspfad 26 die Sensorsignale der Videosensorik 21 ein. In einer nicht dargestellten Ausführungsform ist es auch denkbar die Signale einer anderen Umfeldsensorik zu verwenden, bspw. einer Lidar-Sensorik, einer Ultraschallsensorik oder auch der dargestellten Radarsensorik 22.
In der dargestellten Ausführungsform werden die Videosignale 21 in dem
Sicherheitspfad 26 bspw. mittels des in dieser Anmeldung vorgestellten
Verfahrens zur Plausibilisierung ausgewertet. Ergebnis des Sicherheitspfades26 ist die Freigabe des Auslöseverfahrens. Diese Freigabe kann bspw. durch das Setzen eines entsprechenden Flags getätigt werden. Denkbar wäre auch die Erzeugung eines geeigneten Signals. Da das vorliegende Verfahren auch im Kontext von PreCrash-Anwendungen zum Einsatz kommen soll, ist es ebenfalls denkbar, dass eine positive Plausibilisierung für eine vorbestimmte Zeit vorgehalten wird. Nur wenn sowohl der Auswertpfad 29 als auch der
Sicherheitspfad 26 zu dem Ergebnis kommen, dass eine Ansteuerung der Sicherheitsmittel gefordert ist, wird es zu Auslösung 31 der Sicherheitsmittel kommen.
Fig. 3 zeigt ein Ablaufdiagramm eines Verfahrens zur Video-basierten KFZ- Kennzeichenerkennung gemäß dem Stand der Technik. Im Schritt 301 wird ein KFZ-Kennzeichen als regulatorisch normiertes Merkmal erfasst. Im Schritt 302 wird die Fahrzeugfrontmaske lokalisiert. Im Schritt 303 wird eine Analyse des erfassten KFZ-Kennzeichens und der Fahrzeugfrontmaske durchgeführt. Im
Schritt 303 erfolgt eine Klassifizierung 304 der Analyse. Ergebnisse des
Klassifizierungsschritts 304 können unter anderem sein, die Ermittlung der Relativgeschwindigkeit 121, der Masse 122 und der Steifigkeit 123 des
Kollisionsobjekts, der Kollisionstyp bzw. -geometrie 124 sowie die
Kollisionswahrscheinlichkeit 125 (vgl. Fig. 1).
Kommt der Klassifizierungsschritt 304 zu dem Ergebnis, dass eine Kollision bzw. eine bevorstehende Kollision plausibel ist, erfolgt die Freigabe 305 der
Ansteuerung der Sicherheitsmittel. Schlägt einer der Schritte 301 bis 303 fehl oder kommt die Klassifizierung 304 zu dem Ergebnis, dass eine Kollision bzw. eine bevorstehende Kollision nicht plausibel ist, dann erfolgt keine Freigabe 306 der Ansteuerung der Sicherheitsmittel.
Fig. 4 zeigt beispielhaft, wie aus der Lokalisierung des KFZ-Kennzeichens 40 der zu untersuchende Abschnitt 41 zur Analyse der Fahrzeugfrontmaske in der
Umgebung des Erfassungsbereichs um das erfasste KFZ-Kennzeichen 40 als regulatorisch normiertes Merkmal eines Fahrzeugs herum ermittelt wird. Aus dem Stand der Technik sind Ansätze bekannt, um charakteristische Merkmale eines Fahrzeuges ausgehend von der„Landmarke Nummernschild" 40 mit dem Eigenfaces-Ansatz zu klassifizieren bekannt. Ansätze gehen von einer sogenannten Eigenface-Erkennung aus. Dabei wird die Information im
Erfassungsbereich bzw. in dem anhand des lokalisierten KFZ-Kennzeichens reduzierten Erfassungsbereichs (Fig. 4, links) mit einer Sammlung an Eigenfaces (Fig. 4, rechts), d.h. mit Vorlagen bekannter Fahrzeugfrontmasken verglichen. Dabei können Verfahren basierend auf der Linearkombination von Basiselementen, die aus dem Bereich der Gesichtserkennung bekannt sind, verwendet werden.
Das Nummernschild 40 kann als Landmarke genutzt werden, um eine tiefergehende Analyse durchzuführen.
Kriterien für den Klassifikator könnten das Residuum (Schwellwertvergleich) der Rekonstruktion sein oder die Analyse der Verortung im Feature Space. Hier können diskriminierende Hyperflächen implementiert und abgefragt werden
(Support Vector Machine, Neuronale Netze, Schwellwerte, etc.).
Die Region of Interest 41 kann ja nach Analyse auch das ganze Fahrzeug umfassen. Hier können leistungsstarke Verfahren der datengetriebenen
Bildsegmentierung eingesetzt werden (Water-Shed Algorithmus, Growing
Regions, Kantenzüge, Template-Matching-Verfahren, etc.). Die Ergebnisse der Segmentierung können mit Fahrzeug Umrissen verglichen werden.
Fig. 5 zeigt eine schematische Einteilung eines Erfassungsbereichs 500 einer Umfeldsensorik. Der Erfassungsbereich 500 ist dabei in nicht-kritische (1,1),
(2,1), (1,2), (1,3), (1,4), (2,4) und kritische Bereiche (2,2), (2,4) eingeteilt. Als Kreise dargestellten Elemente stellen erfasste Merkmale dar. Ein Kreis mit einer 1 ist die Position des Merkmals zu einem ersten Zeitpunkt. Ein Kreis mit einer 2 ist die Position des Merkmals zu einem zweiten Zeitpunkt. Der Pfeil zwischen einem Merkmal zu einem ersten Zeitpunkt und einem zweiten Zeitpunkt, stellt die
Bewegung des erkannten Merkmals vom ersten zum zweiten Zeitpunkt dar. Für die Plausibilisierung einer Kollision bzw. einer bevorstehenden Kollision sind die Merkmalsbewegungen innerhalb von kritischen Bereichen (2,2), (2,4) bzw. von einem nicht-kritischen (1,1), (2,1), (1,2), (1,3), (1,4), (2,4) in einen kritischen Bereich (2,2), (2,4) hinein.
Das Grauwertbild ist in Bereiche unterteilt. Die Lokalisationen werden diesen Bereichen zugeordnet. Die zu Fig. 5 (schematisch) gehörige Akzeptanzregeln sind:
Erste Lokalisation in Region mit Index (1,Y) mit Y aus { 1,2,3,4} und Zweite Lokalisation in Region mit dem Index (X,2) mit X aus {2, 3}
Die Einteilungen und Übergänge werden so festgelegt, dass die Übergänge unvermeidbaren Kollisionen und erfolgreiche Ausweichmanöver eindeutig unterschieden werden können.

Claims

Ansprüche
1. Verfahren (26, 300) zur Plausibilisierung einer Ansteuerentscheidung für Sicherheitsmittel für ein Fahrzeug, mit den Schritten:
- Erfassen(21, 301) eines regulatorisch normierten Merkmals eines Kollisionsobjekts mittels einer Umfeldsensorik;
- Freigeben (28, 305) der Ansteuerentscheidung abhängig von dem erfassten Merkmal.
2. Verfahren (26, 300) nach Anspruch 1, wobei das Kollisionsobjekt ein Kraftfahrzeug und das Merkmal ein Kennzeichen (40) und/oder ein Gefahrenzettel und/oder eine Warntafel für das Kraftfahrzeug ist.
3. Verfahren (26, 300) nach Anspruch 1 oder 2, wobei die Umfeldsensorik (21, 22) einen Erfassungsbereich (500) aufweist, wobei der
Erfassungsbereich (500) zumindest in kritische ((2,2), (2,4)) und nichtkritische Bereiche ((1,1), (2,1), (1,2), (1,3), (1,4), (2,4)) aufgeteilt ist, wobei im Schritt des Erfassens ein optischer Fluss des
Erfassungsbereichs erfasst wird oder zeitlich aufeinanderfolgend der Erfassungsbereich mehrfach erfasst wird, wobei eine Freigabe der Ansteuerentscheidung dann erfolgt, wenn das Merkmal (40) mit einer vorbestimmten Mindestgröße erfasst wird und wenn entweder das Merkmal (40) in einem kritischen Bereich ((2,2), (2,4)) erfasst wird oder eine Bewegung des Merkmals (40) von einem nicht-kritischen Bereich ((1,1), (2,1), (1,2), (1,3), (1,4), (2,4)) in einen kritischen Bereich ((2,2), (2,4)) erfasst wird.
4. Verfahren (26, 300) nach Anspruch 3, wobei aus der erfassten
Bewegung eine Kollisionsgeschwindigkeit (121) bestimmt wird und die Freigabe (28, 305) in Abhängigkeit von der bestimmten
Kollisionsgeschwindigkeit (121) erfolgt. Verfahren (26, 300) nach Anspruch 3 oder 4, wobei eine Größe und/oder eine Verzerrung des Merkmals (40) und/oder eine Position in dem Erfassungsbereich (500) des Merkmals (40) erfasst wird und aus der Größe und/oder der Verzerrung und/oder der Position ein
Kollisionsschwere und/oder ein Kollisionszeitpunkt und/oder ein
Auftreffwinkel (124) und/oder eine Auftreffpunkt an dem Fahrzeug bestimmt werden, wobei die Freigabe in Abhängigkeit von der
Kollisionsschwere und/oder dem Kollisionszeitpunkt und/oder dem Auftreffwinkel (124) und/oder dem Auftreffpunkt erfolgt.
Verfahren (26, 300) nach einem der vorhergehenden Ansprüche, wobei eine Freigabe (28, 305) nur dann erfolgt, wenn das Merkmal (40) mit einer vorbestimmten Güte erfasst wurde, insbesondere wenn der Kontrast des erfassten Merkmals (40) einen vorbestimmten
Schwellenwert überschreitet.
Verfahren (26, 300) nach einem der Ansprüche 2 bis 8, wobei auf das erfasste Kennzeichen (40) ein Verfahren zur optischen
Zeichenerkennung angewendet wird und die Freigabe (28, 305) abhängig von dem Verfahren zur optischen Zeichenerkennung erfolgt.
Verfahren (26, 300) nach Anspruch 7, wobei die mittels dem Verfahren zur optischen Zeichenerkennung erkannten Zeichen mit einer vorbestimmten syntaktischen Vorgabe verglichen werden und das Kennzeichen als Merkmal (40) nur verwendet wird, wenn die erkannten Zeichen der syntaktischen Vorgabe entsprechen.
Verfahren (26, 300) nach einem der vorhergehenden Ansprüche, mit dem zusätzlichen Schritt des Ermitteins der aktuellen Position des Fahrzeugs mittels einer Vorrichtung zur Positionsbestimmung, insbesondere mittels eines GNS-Systems, auf, wobei der Schritt des Erfassens (21, 301) von der ermittelten Position des Fahrzeugs abhängt.
10. Verfahren (26, 300) nach einem der Ansprüche 2 bis 9, wobei das erfasste Kennzeichen (40) mit weiteren Merkmalen des Kraftfahrzeugs korreliert wird und eine Freigabe (28, 305) dann erfolgt, wenn die Korrelation schlüssig ist.
11. Verfahren (26, 300) nach einem der vorhergehenden Ansprüche, wobei das Erfassen (21, 301) und/oder das Freigeben (28, 305) vor Kontakt mit dem Kollisionsobjekt erfolgen.
12. Verfahren (26, 300) nach einem der vorhergehenden Ansprüche, wobei die Ansteuerung (31) im Falle einer bevorstehenden, insbesondere einer unvermeidbaren, Kollision mit einem Kollisionsobjekt erfolgt.
13. Computerprogramm, welches eingerichtet ist, alle Schritte des
Verfahrens (26, 300) nach einem der Ansprüche 1 bis 12 auszuführen.
14. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 13 gespeichert ist.
15. Vorrichtung, die eingerichtet ist, alle Schritte des Verfahrens (26, 300) nach einem der Ansprüche 1 bis 12 auszuführen.
PCT/EP2016/061650 2015-07-17 2016-05-24 Verfahren zur plausibilisierung einer ansteuerentscheidung für sicherheitsmittel WO2017012743A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/743,365 US20180201261A1 (en) 2015-07-17 2016-05-24 Method for checking the plausibility of a control decision for safety means
CN201680041537.XA CN107848480A (zh) 2015-07-17 2016-05-24 用于核准用于安全器件的操控决策的方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015009082.8 2015-07-17
DE102015009082 2015-07-17

Publications (1)

Publication Number Publication Date
WO2017012743A1 true WO2017012743A1 (de) 2017-01-26

Family

ID=56098225

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/061650 WO2017012743A1 (de) 2015-07-17 2016-05-24 Verfahren zur plausibilisierung einer ansteuerentscheidung für sicherheitsmittel

Country Status (3)

Country Link
US (1) US20180201261A1 (de)
CN (1) CN107848480A (de)
WO (1) WO2017012743A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018214921A1 (de) * 2018-09-03 2020-03-05 Deutsches Zentrum für Luft- und Raumfahrt e.V. Anordnung und Verfahren zur Steuerung einer Vorrichtung
DE102019213185A1 (de) * 2019-09-02 2021-03-04 Volkswagen Aktiengesellschaft Querführung eines Fahrzeugs mittels von anderen Fahrzeugen erfassten Umgebungsdaten

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040057599A1 (en) * 2002-06-27 2004-03-25 Kabushiki Kaisha Toshiba Image processing apparatus and method
DE10337619A1 (de) 2003-08-16 2005-03-24 Daimlerchrysler Ag Einrichtung zur Bestimmung der Masse eines Verkehrsteilnehmers
DE10354035A1 (de) * 2003-11-19 2005-06-02 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zur Objekterkennung für eine Kraftfahrzeug-Sicherheitseinrichtung
DE102004020573A1 (de) * 2004-04-27 2005-11-17 Daimlerchrysler Ag Verfahren zur Einleitung von Sicherheitsmaßnahmen für ein Kraftfahrzeug
WO2010007392A1 (en) * 2008-07-18 2010-01-21 Innovative Vehicle Systems Ltd Determining separation between automotive vehicles
DE102013012153A1 (de) * 2013-07-20 2014-01-09 Daimler Ag Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftwagens

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040057599A1 (en) * 2002-06-27 2004-03-25 Kabushiki Kaisha Toshiba Image processing apparatus and method
DE10337619A1 (de) 2003-08-16 2005-03-24 Daimlerchrysler Ag Einrichtung zur Bestimmung der Masse eines Verkehrsteilnehmers
DE10354035A1 (de) * 2003-11-19 2005-06-02 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zur Objekterkennung für eine Kraftfahrzeug-Sicherheitseinrichtung
DE102004020573A1 (de) * 2004-04-27 2005-11-17 Daimlerchrysler Ag Verfahren zur Einleitung von Sicherheitsmaßnahmen für ein Kraftfahrzeug
WO2010007392A1 (en) * 2008-07-18 2010-01-21 Innovative Vehicle Systems Ltd Determining separation between automotive vehicles
DE102013012153A1 (de) * 2013-07-20 2014-01-09 Daimler Ag Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftwagens

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANAKAVEJ ET AL.: "Aus Internet-Vision Based Vehicle Model Query System Using Eigenfaces and Pyramid of Histogram of Oriented Gradients", INTERNATIONAL CONFERENCE ON SIGNAL-IMAGE TECHNOLOGY & INTERNET-BASED SYSTEM (SITIS, 2013

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018214921A1 (de) * 2018-09-03 2020-03-05 Deutsches Zentrum für Luft- und Raumfahrt e.V. Anordnung und Verfahren zur Steuerung einer Vorrichtung
DE102019213185A1 (de) * 2019-09-02 2021-03-04 Volkswagen Aktiengesellschaft Querführung eines Fahrzeugs mittels von anderen Fahrzeugen erfassten Umgebungsdaten

Also Published As

Publication number Publication date
US20180201261A1 (en) 2018-07-19
CN107848480A (zh) 2018-03-27

Similar Documents

Publication Publication Date Title
DE10025678B4 (de) Kamerabasiertes Precrash-Erkennungssystem
DE19982422C1 (de) Vorrichtung und Verfahren zur Verkehrszeichenerkennung
WO2015048954A1 (de) Verfahren und vorrichtung zur erkennung von verkehrszeichen
DE102010027969B4 (de) Verfahren und Vorrichtung zur Bestimmung eines Typs eines Aufpralls eines Objektes auf ein Fahrzeug
EP2449507A1 (de) Bildverarbeitungsverfahren für ein fahrerassistenzsystem eines kraftfahrzeugs zur detektion und klassifikation wenigstens eines teils wenigstens eines vorgegebenen bildelements
DE10336638A1 (de) Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
DE102014106506A1 (de) Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
EP3044727B1 (de) Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten
WO2009013223A1 (de) Verfahren und vorrichtung zur verkehrszeichenerkennung
WO2014108561A1 (de) Verfahren und vorrichtung zum überwachen eines umfelds eines fahrzeugs und verfahren zum durchführen einer notbremsung
EP3631677A1 (de) Verfahren zur erkennung von objekten in einem bild einer kamera
EP2951804A1 (de) Erstellen eines umfeldmodells für ein fahrzeug
DE102006058308A1 (de) Verfahren und Vorrichtung zum Erfassen eines Hindernisses in einem Umgebungsbereich eines Kraftfahrzeugs und Kraftfahrzeug
DE102014201158A1 (de) Verfahren und Vorrichtung zum Überprüfen eines von einer Objekterkennung erkannten relevanten Objekts
EP1652161B2 (de) Vorrichtung zur klassifizierung wenigstens eines objekts in einem fahrzeugumfeld
DE102017207442A1 (de) Verfahren und Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges
DE102019103368A1 (de) Erkennung durch fusion mehrerer sensoren
DE102007021580B4 (de) Verfahren und Vorrichtung zum Ermitteln der fahrzeugrelevanten Verkehrszeichen
WO2017012743A1 (de) Verfahren zur plausibilisierung einer ansteuerentscheidung für sicherheitsmittel
DE102013021840A1 (de) Verfahren zum Erzeugen eines Umgebungsmodells eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102012009703A1 (de) Verfahren und Vorrichtung zur Personenerkennung im Umfeld eines Kraftfahrzeugs
EP3520020B1 (de) Verkehrszeichenklassifikation in einem umgebungsbereich eines kraftfahrzeugs
DE102007021579A1 (de) Verfahren und Vorrichtung zur Klassifikation mindestens eines Verkehrszeichens
DE102015213594A1 (de) Verfahren, computer-lesbares Medium, und System zum Erfassen einer Verkehrssituation eines oder mehrerer Fahrzeuge in einer Umgebung eines Egofahrzeugs
DE102016103037A1 (de) Verfahren zum Überprüfen einer Funktionstüchtigkeit eines Kamera-Monitor-Systems, Kamera-Monitor-System sowie Kraftfahrzeug

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16726833

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15743365

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16726833

Country of ref document: EP

Kind code of ref document: A1