DE102012009703A1 - Method for actively protecting e.g. cyclist in environment of motor car, involves determining endangered object by data fusion unit, and providing actuator in car controller when endangerment measure is larger than predetermined threshold - Google Patents
Method for actively protecting e.g. cyclist in environment of motor car, involves determining endangered object by data fusion unit, and providing actuator in car controller when endangerment measure is larger than predetermined threshold Download PDFInfo
- Publication number
- DE102012009703A1 DE102012009703A1 DE201210009703 DE102012009703A DE102012009703A1 DE 102012009703 A1 DE102012009703 A1 DE 102012009703A1 DE 201210009703 DE201210009703 DE 201210009703 DE 102012009703 A DE102012009703 A DE 102012009703A DE 102012009703 A1 DE102012009703 A1 DE 102012009703A1
- Authority
- DE
- Germany
- Prior art keywords
- objects
- recognition
- data
- person
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000004927 fusion Effects 0.000 title claims abstract description 24
- 230000001815 facial effect Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 13
- 238000011156 evaluation Methods 0.000 claims description 8
- 238000003909 pattern recognition Methods 0.000 claims description 4
- 238000001454 recorded image Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 16
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000012567 pattern recognition method Methods 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
Die Erfindung betrifft ein Verfahren zum aktiven Schutz von sich im Umfeld eines Kraftfahrzeugs bewegenden Personen, wie beispielsweise Fußgänger oder Radfahrer, in einem Kraftfahrzeug gemäß dem Oberbegriff des Anspruchs 1 sowie eine entsprechende Vorrichtung gemäß dem Oberbegriff des Anspruchs 7.The invention relates to a method for active protection of persons moving in the environment of a motor vehicle, such as pedestrians or cyclists, in a motor vehicle according to the preamble of
Assistenzsysteme in Kraftfahrzeugen zur Vermeidung oder zumindest zur Verringerung der Folgen eines Unfalls eines Kraftfahrzeugs mit einem Objekt sind bekannt. So versuchen Notbremssysteme eine drohenden Kollision mit einem im Fahrschlauch befindlichen Objekt durch entsprechende Aktionen zu vermeiden oder die Folgen der Kollision zu vermindern, falls das Fahrer innerhalb eines vorgegebenen Zeitfensters erkennbar keine Maßnahmen ergreift. Ist daher ein Zeitpunkt erreicht, ab dem unter Berücksichtigung der Reaktionszeit des Fahrers eine Kollision praktisch unvermeidbar ist, so übernimmt das Assistenzsystem die Steuerung des Fahrzeugs und leitet entsprechende Aktionen ein, wie ein Ausweichmanöver oder eine Vollbremsung.Assistance systems in motor vehicles to avoid or at least reduce the consequences of an accident of a motor vehicle with an object are known. For example, emergency braking systems attempt to avoid an imminent collision with an object in the driving lane by corresponding actions or to reduce the consequences of the collision if the driver does not take any measures within a given time window. Therefore, if a point in time is reached, from which a collision is practically unavoidable taking into account the reaction time of the driver, the assistance system takes over the control of the vehicle and initiates appropriate actions, such as an evasive maneuver or full braking.
Derartige Notbremssysteme können einerseits als selbständige Systeme in Kraftfahrzeugen oder Bestandteil komplexer Assistenzsysteme realisiert sein, wie dies beispielsweise bei einem ACC-System mit Start-Stop-Funktion oder bei einem Einparkassistenten der Fall sein kann. Nun sind derartige Assistenzsysteme mit Notbremsfunktion üblicherweise darauf ausgelegt auf andere, in der Umgebung des Eigenfahrzeugs befindliche Kraftfahrzeuge oder stehende Objekte zu reagieren, also auf relativ große Objekte.On the one hand, such emergency brake systems can be implemented as independent systems in motor vehicles or as part of complex assistance systems, as may be the case, for example, with an ACC system with start-stop function or with a parking assistant. Now such assistance systems with emergency braking function are usually designed to respond to other located in the vicinity of the vehicle or motor vehicles standing objects, so on relatively large objects.
Probleme bereiten vorausschauende Schutzsysteme oder Schutzverfahren, die Kollisionen mit in der Umgebung des Kraftfahrzeugs befindlichen Personen vermeiden oder die Unfallfolgen verringern sollen, da Unfälle zwischen einem Kraftfahrzeug und einer Person im Allgemeinen zu Lasten der am Unfall beteiligten Person geht. Unter Personen werden hier im wesentlichen Fußgänger oder Radfahrer verstanden, aber es kann sich ebenfalls um den Fahrer eines Kleinkraftrades handeln. Eine Person ist in diesem Kontext daher als ein ungeschützter menschlicher Verkehrsteilnehmer zu verstehen.Problems are provided by forward-looking protection systems or protective methods which are intended to avoid collisions with persons in the vicinity of the motor vehicle or to reduce the consequences of accidents, since accidents between a motor vehicle and a person are generally at the expense of the person involved in the accident. People are understood here to be essentially pedestrians or cyclists, but they may also be the driver of a moped. A person should therefore be understood as an unprotected human road user in this context.
Derartige vorausschauende Schutzsysteme für Fußgänger oder Radfahrer bewerten auf Basis von Sensordaten, beispielsweise einer Monokamera oder eines Radars, die Gefährlichkeit einer Verkehrssituation mit einer am Verkehr teilnehmenden Person. In Abhängigkeit von der ermittelten Gefährlichkeit, die durch eine geeignete Maßgröße realisiert ist, werden im Fall einer potentiellen Kollision zwischen einem Kraftfahrzeug und einer am Verkehr teilnehmenden Person, d. h. Fußgänger oder Radfahrer, Aktionen zur Vermeidung einer Kollision oder zur Minderung der Kollisionsfolgen eingeleitet, beispielsweise durch eine Notbremsung.Such predictive protection systems for pedestrians or cyclists evaluate on the basis of sensor data, such as a monocamera or a radar, the danger of a traffic situation with a person participating in the traffic. Depending on the determined dangerousness, which is realized by a suitable measure, in the case of a potential collision between a motor vehicle and a person participating in the traffic, i. H. Pedestrians or cyclists, initiated actions to avoid a collision or to reduce the collision consequences, for example by emergency braking.
Aus der Druckschrift
Ferner ist aus der Druckschrift
Neben den Verfahren zur Erkennung von Personen, die im wesentlichen auf der Konturerkennung beruhen, wird insbesondere im Bereich der Computer Vision Verfahren zur Gesichtserkennung in der Entwicklung, wie dies beispielsweise in der Veröffentlichung
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zum aktiven Schutz von sich im Umfeld eines Kraftfahrzeugs bewegenden Personen mit verbesserter Erkennungsfähigkeit der Person zu schaffen.The invention has for its object to provide a method and an apparatus for the active protection of moving in the environment of a motor vehicle persons with improved recognition ability of the person.
Diese Aufgabe wird durch ein Verfahren zum aktiven Schutz von sich im Umfeld eines Kraftfahrzeugs bewegenden Personen mit den Merkmalen des Anspruchs 1 und durch ein System zum aktiven Schutz von sich im Umfeld eines Kraftfahrzeugs bewegenden Personen mit den Merkmalen des Anspruchs 7 gelöst. Bevorzugte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.This object is achieved by a method for the active protection of persons moving in the vicinity of a motor vehicle with the features of
Das erfindungsgemäße Verfahren zum aktiven Schutz von sich im Umfeld eines Kraftfahrzeugs befindlichen Personen, insbesondere Fußgänger und Radfahrer, umfasst die folgenden Schritte:
- – Erfassen von Bilddaten des Umfeldes des Kraftfahrzeugs mittels eines bildaufnehmenden Sensorsystems,
- – Durchführen einer Bildverarbeitung der erfassten Bilddaten mit – einer Personenerkennung zur Bestimmung von vollständig oder teilweise erkannten Personenobjekten in der Kraftfahrzeugumgebung, – einer Gesichtserkennung zur Bestimmung vollständig sichtbarer Gesichtsobjekte, und – eine Datenfusion erkannter Gesichtsobjekte mit vollständig oder teilweise erkannten Personenobjekten zur Bestimmung potentiell gefährdeter Objekte,
- – Beurteilung des Maßes der Gefährdung der potentiell gefährdeten Objekte, und
- – Durchführen eines Eingriffs in die Kraftfahrzeugsteuerung, falls das Gefährdungsmaß größer als eine vorgegebene Schwelle ist.
- Acquiring image data of the environment of the motor vehicle by means of an image-capturing sensor system,
- Performing an image processing of the acquired image data with a person recognition for the determination of completely or partially recognized person objects in the motor vehicle environment, a face recognition for the determination of completely visible face objects, and a data fusion of recognized face objects with completely or partially recognized person objects for the determination of potentially endangered objects,
- - assessment of the degree of endangerment of potentially endangered objects, and
- - Performing an intervention in the motor vehicle control, if the risk measure is greater than a predetermined threshold.
Durch die Zusammenführung von Personenerkennung und Gesichtserkennung können unterschiedliche Merkmale einer Person, d. h. eines Fußgängers bzw. eines Radfahrers, miteinander verknüpft werden, was zu einer verbesserten Erkennungssicherheit und damit zu einer verringerten Falschauslöserate führt. Zur Personenerkennung werden vorzugsweise Mustererkennungsverfahren verwendet, welche beispielsweise nach fußgängerähnlichen Konturen in den erfassten Bildern suchen. Ebenso wird vorzugsweise die Gesichtserkennung mittels Mustererkennungsverfahren durchgeführt, wobei in den erfassten Bildern nach Gesichtern und Gesichtsmerkmalen gezielt gesucht wird. Dabei wird hinsichtlich der Gesichter unterschieden in Frontalansichten, seitlichen Ansichten und gedrehten Ansichten.By combining person recognition and face recognition, different characteristics of a person, i. H. a pedestrian or a cyclist, are linked together, which leads to improved detection reliability and thus to a reduced false triggering rate. For person recognition, pattern recognition methods are preferably used which search, for example, for pedestrian-like contours in the captured images. Likewise, the face recognition is preferably carried out by means of pattern recognition methods, whereby the detected images are searched in a targeted manner for faces and facial features. Faces are distinguished in frontal views, side views and rotated views.
Durch die Verknüpfung von teilweise erkannten Personen mit der Erkennung vollständiger Gesichter besteht die Möglichkeit, dass hier beschriebene Verfahren auf durch Fahrzeug- und Eigenbewegung gefährdete Fußgänger oder Radfahrer reagiert, welche nicht vollständig sichtbar sind, aber deren Gesicht für einen bildaufnehmenden Sensor unverdeckt sichtbar ist.By linking partially recognized persons with the detection of full faces, there is the possibility that the method described here reacts to pedestrians or cyclists vulnerable to vehicle and personal movement, which are not completely visible, but whose face is unobstructedly visible to an image-receiving sensor.
Vorzugsweise wird die Personenerkennung zur Erkennung von Personenobjekten und/oder die Gesichtserkennung zur Erkennung von Gesichtsobjekten über eine vorgegebene Anzahl von zeitsequentiell aufgenommenen Bildern der Bilddaten durchgeführt. Auf diese Weise kann ein sogenanntes Tracking durchgeführt werden, so dass zeitliche Änderungen, also Bewegungen, von Personen und Gesichtern erkennbar und nachvollziehbar werden. Auf diese Weise können auch kurzfristige teilweise Abdeckungen von detektierten Personen berücksichtigt werden.Preferably, the person recognition for the recognition of personal objects and / or the face recognition for the recognition of facial objects over a predetermined number of time sequentially recorded images of the image data is performed. In this way, a so-called tracking can be performed so that temporal changes, ie movements of people and faces are recognizable and comprehensible. In this way, even short-term partial coverage of detected persons can be taken into account.
Weiter bevorzugt umfasst die Datenfusion eine Plausibilisierung der zu fusionierenden und der fusionierten Daten. Eine Plausibilisierung kann anhand einer Verknüpfung von Positions- und Entfernungsdaten der Personen und Gesichter oder allgemein anhand von Positionsdaten erfolgen. Die Plausibilisierung kann für die erkannten oder teilweise erkannten Personen und vollständig erkannten Gesichter erfolgen, es kann auch eine Plausibilisierung der fusionierten Daten erfolgen.More preferably, the data fusion comprises a plausibility check of the data to be merged and the merged data. A plausibility check can be carried out by linking position and distance data of the persons and faces or generally by means of position data. The plausibility check can be done for the detected or partly recognized persons and completely recognized faces, it can also be a plausibility check of the merged data.
Vorzugsweise wird bei vollständiger oder teilweiser Erkennung von Personenobjekten und vollständig sichtbarer Gesichtsobjekte eine Erkennungsgüte der fusionierten Daten bestimmt, die zum Auslösen des Eingriffs in die Kraftfahrzeugsteuerung herangezogen wird. Üblicherweise fällt die Erkennungsgüte fusionierter Daten vollständig erkannter Personen und Gesichter höher aus als die Erkennungsgüte der jeweiligen einzelnen nichtfusionierten Daten. Gleiches trifft auch für die fusionierten Daten von teilweise erkannten Personen und vollständig erkannten Gesichtern zu.Preferably, upon complete or partial detection of personal objects and fully visible facial objects, a quality of recognition of the fused data is determined which is used to trigger the intervention in the motor vehicle control. Usually, the recognition quality of fused data of completely recognized persons and faces is higher than the recognition quality of the respective individual unfused data. The same applies to the merged data of partially recognized persons and fully recognized faces.
Weiter bevorzugt kann bei erkannten Gesichtsobjekten, denen kein Personenobjekt zugeordnet werden kann, ein Auslösen eines Eingriffs in die Kraftfahrzeugsteuerung aufgrund einer Plausibilisierung der Erkennungsgüte des erkannten Gesichtsobjekts erfolgen. Auf diese Weise wird die Sicherheit für Fußgänger und Radfahrer erhöht, da ein Auslösen einer Notfallmaßnahme, beispielsweise Bremsen des Fahrzeugs, auch schon bei einem vollständig erkannten Gesicht erfolgen kann, obwohl keine zu dem Gesicht passende Person aktuell erkannt worden ist. Eine derartige Situation kann beispielsweise vorliegen, wenn die Person soweit verdeckt ist, dass eine Personenkontur im Bild nicht erkennbar ist.Further preferably, in the case of recognized facial objects, to which no person object can be assigned, a triggering of an intervention in the motor vehicle control takes place on the basis of a plausibility check of the recognition quality of the recognized facial object. In this way, the safety for pedestrians and cyclists is increased, since triggering an emergency measure, such as braking the vehicle, even with a fully recognized face can be done, although no person matching the face has been currently recognized. Such a situation may be present, for example, if the person is covered so far that a person contour is not recognizable in the picture.
Weiter bevorzugt erfolgt ein Plausibilisierung und/oder Fusionierung erkannter Gesichtsobjekte mit Daten von nichtbildaufnehmenden Umfeldsensoren. Derartige nichtbildaufnehmende Umfeldsensoren können beispielsweise Radarsensoren sein, die den Abstand eines Hindernisses ermitteln, der zur Plausibilisierung eines vollständig erkannten Gesichts herangezogen werden kann.More preferably, a plausibility check and / or fusion of recognized facial objects with data from non-image-capturing environmental sensors takes place. Such non-image-taking environment sensors can be, for example, radar sensors, which determine the distance of an obstacle that can be used to check the plausibility of a completely recognized face.
Die erfindungsgemäße Vorrichtung zum aktiven Schutz von sich im Umfeld eines Kraftfahrzeugs bewegenden Personen, insbesondere Fußgänger und Radfahrer, zur Durchführung des im Vorangegangenen beschriebenen Verfahrens umfasst:
- – ein bildaufnehmendes Sensorsystem zur Erfassung von Bilddaten der Umgebung des Kraftfahrzeugs,
- – eine Einrichtung zur Verarbeitung der Bilddaten des bildaufnehmenden Sensorsystems mit – einer Personenerkennungseinrichtung zur Bestimmung von vollständig oder teilweise erkannten Personenobjekten in der Kraftfahrzeugumgebung, – einer Gesichtserkennungseinrichtung zur Bestimmung vollständig sichtbarer Gesichtsobjekte, und – eine Datenfusionseinrichtung zur Datenfusion erkannter Gesichtsobjekte mit vollständig oder teilweise erkannten Personenobjekte zur Bestimmung gefährdeter Objekte,
- – eine Bewertungs- und Entscheidungseinrichtung zur Bewertung der gefährdeten Objekte, und
- – eine Einrichtung zur Ansteuerung von Aktoren basierend auf den Ergebnissen der Bewertung- und Entscheidungseinrichtung.
- An image-capturing sensor system for capturing image data of the environment of the motor vehicle,
- A device for processing the image data of the image-capturing sensor system with a person recognition device for determining fully or partially recognized personal objects in the motor vehicle environment, a face recognition device for determining completely visible facial objects, and a data fusion device for data fusion of recognized facial objects with completely or partially recognized humanoid objects Determination of endangered objects,
- - an evaluation and decision-making facility for the assessment of vulnerable objects, and
- A device for controlling actuators based on the results of the evaluation and decision device.
Vorzugsweise weist die Vorrichtung eine Trackingeinrichtung zum Verfolgen von Personenobjekten und Gesichtsobjekten in nacheinander folgenden zeitsequentiellen Bilddaten auf. Mit der Trackingeinrichtung ist eine zeitliche Verfolgung potentiell gefährdeter Objekte möglich, wodurch die Wahrscheinlichkeit einer Falschauslösung eines Noteingriffs in die Fahrzeugsteuerung verringert wird.The device preferably has a tracking device for tracking human objects and facial objects in successive time-sequential image data. With the tracking device, a time tracking of potentially endangered objects is possible, whereby the probability of a false triggering an emergency intervention in the vehicle control is reduced.
Weiter bevorzugt weisen die Personenerkennungseinrichtung und die Gesichtserkennungseinrichtung jeweils eine Mustererkennungseinrichtung auf. Mit anderen Worten, es werden einerseits vorzugsweise Personenkonturen wie Fußgänger oder Radfahrerkonturen in den Bildern und andererseits vorzugsweise Gesichtkonturen und Gesichtsinhalte anhand geeigneter Mustererkennungsalgorithmen gesucht und analysiert.More preferably, the person recognition device and the face recognition device each have a pattern recognition device. In other words, on the one hand, preferably person contours such as pedestrians or cyclist contours in the images and, on the other hand, preferably facial contours and facial contents are sought and analyzed on the basis of suitable pattern recognition algorithms.
Vorzugsweise weist die Datenfusionseinrichtung eine Plausibilitätseinrichtung zur Plausibilisierung der zu fusionierenden oder der fusionierten Daten auf. Mittels der Plausibilisierung wird die Sicherheit bei der Zuordnung der zu fusionierenden Daten verbessert, was die Erkennung potentiell gefährdeter Objekte erhöht.The data fusion device preferably has a plausibility device for checking the plausibility of the data to be merged or the merged data. The plausibility check improves the security of the assignment of the data to be merged, which increases the detection of potentially endangered objects.
Weiter bevorzugt weist die Datenfusionseinrichtung eine Einrichtung zu Bestimmung der Erkennungsgüte der fusionierten Daten auf. Diese Maßnahme erhöht weiter die Erkennung potentiell gefährdeter Objekte und die Zuverlässigkeit einer Auslösung einer Maßnahme.With further preference, the data fusion device has a device for determining the recognition quality of the fused data. This measure further increases the detection of potentially endangered objects and the reliability of triggering a measure.
Ferner kann die Vorrichtung eine nichtbildaufnehmende Umfeldsensorik aufweisen, beispielsweise einen Radarsensor oder einen Lidarsensor zur Abstandsmessung. Mittels der zusätzlichen Umfeldsensorik kann insbesondere der Fall einer Maßnahmenauslösung abgedeckt werden, in dem nur vollständige Gesichtsobjekte erkannt wurden, denen aber kein Personenobjekt zugeordnet werden kann.Furthermore, the device can have a non-image-capturing environment sensor system, for example a radar sensor or a lidar sensor for distance measurement. By means of the additional environment sensor system, it is possible in particular to cover the case of an action triggering in which only complete facial objects have been recognized, but to which no person object can be assigned.
Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnungen erläutert. Dabei zeigtA preferred embodiment of the invention will be explained below with reference to the drawings. It shows
Zusammenfassend führen die Sensordatenverarbeitung
- –
eine Sensordatenverarbeitung 2 , umfassend: - –
eine Bildvorverarbeitung 7 mit vorbereitenden Verarbeitungsschritten, wie beispielsweise einer Filterung; - – eine Fußgänger- und/oder Radfahrererkennung, d. h.
eine Personenerkennung 8 , von vollständig oder teilweise im aufgenommenen Bild erkennbaren Fußgängern oder Radfahrern basierend auf einem geeigneten Mustererkennungsverfahren; - –
eine Gesichtserkennung 9 , basierend auf einem geeigneten Mustererkennungsverfahren, welche die Fähigkeit aufweist vollständig sichtbare Gesichter in verschiedenen Ansichten, bis hin zur Seitenansicht, bei ausreichend genauer Abbildung zu erkennen; - – wobei sowohl Fußgänger-/
Radfahrererkennung 8 als auchGesichtserkennung 9 durch ein Trackingverfahren, nämlich eine zeitliche Verfolgung eines Objekts über mehrere zeitsequenziell aufgenommene und verarbeitete Bilder mit möglicher Plausibilisierung, ergänzt werden können; - – einen
Sensordatenfusionsalgorithmus 10 , welcher die Einheit von auf verschiedenen Wegen, also mittels verschiedener Algorithmen und/oder verschiedener Sensoren, erkannten Objekten ermittelt und deren Eigenschaften je nach Erkennungsgüte verknüpft bzw. kombiniert; - – einen Bewertungs-
und Entscheidungsalgorithmus 3 , welcher anhand der erkannten Objektdaten ein Maß der Gefährdung für erkannte Fußgänger oder Radfahrer ermittelt und darauf basierend einen oder mehrere Aktoren über die jeweilige Ansteuerungseinheit ansteuert (Eingriff).
- - a
sensor data processing 2 , full: - - an
image preprocessing 7 with preparatory processing steps, such as filtering; - A pedestrian and / or cyclist recognition, ie a person recognition
8th , pedestrians or cyclists recognizable wholly or partially in the captured image, based on a suitable pattern recognition process; - - a
face recognition 9 based on a suitable pattern recognition method, which has the ability to recognize fully visible faces in different views, right through to the side view, with sufficiently accurate imaging; - - where both pedestrian / cyclist recognition
8th as well asface recognition 9 by a tracking method, namely a temporal tracking of an object over several time sequentially recorded and processed images with a possible plausibility, can be supplemented; - A sensor
data fusion algorithm 10 which determines the unit of objects detected in different ways, ie by means of different algorithms and / or different sensors, and combines or combines their properties depending on the quality of detection; - - an evaluation and
decision algorithm 3 which, on the basis of the recognized object data, determines a measure of the risk to recognized pedestrians or cyclists and, based on this, actuates one or more actuators via the respective actuation unit (intervention).
Zur Erhöhung der Wirksamkeit von Maßnahmen zur Unfallminderung oder Unfallvermeidung sowie zur Verringerung von Falschauslöseraten werden folgenden Verknüpfungen vorgenommen:
- – Bei vollständig erkannten Fußgängern oder Radfahrern mit gleichzeitiger Erkennung der zugehörigen Gesichter wird durch Sensordatenfusion eine Erkennungsgüte der fusionierten Daten ermittelt, welche dabei höher ausfallen kann als die jeweils einzelnen Erkennungsgütewerte. Dabei ist eine verringerte Falschauslöserate zu erwarten. Die Sensordatenfusion kann beispielsweise über eine Verknüpfung der Positions- und geschätzten Entfernungsdaten oder Plausibilisierung der Position erfolgen.
- – Bei teilerkannten und damit weniger sicher erkannten Fußgängern oder Radfahrern mit gleichzeitiger vollständiger Erkennung der zugehörigen Gesichter wird durch Sensordatenfusion eine Erkennungsgüte der fusionierten Daten ermittelt, welche dabei höher ausfallen kann als die jeweils einzelnen Erkennungsgüten. Eine Teilerkennung kann beispielsweise in einer Verdeckung oder unvollständigen Abbildung durch die Beschränkungen des bildaufnehmenden Sensors, wie beispielsweise aufgrund des Öffnungswinkels, begründet sein. Die Sensordatenfusion kann auch hier beispielsweise über eine Verknüpfung der Positions- und geschätzten Entfernungsdaten oder Plausibilisierung der Position erfolgen. Insgesamt kann das System auch hier häufiger eingreifen als bei bekannten Systemen, die keinem Eingriff wegen Teilerkennung und damit zu geringer Erkennungsgüte zulassen.
- – Bei mit hoher Sicherheit erkannten Gesichtern, was beispielsweise bei vielen erkannten Gesichtmerkmalen und/oder mittels eines Trackings über mehrere Bilder möglich ist, denen aber kein durch die Fußgänger/Radfahrererkennung erkannter Fußgänger oder Radfahrer zugeordnet werden kann, kann nach einer geeigneten Plausibilisierung auf dieser Basis ein Eingriff erfolgen. Dabei ist eine verringerte Falschauslöserate zu erwarten.
- – Objekteigenschaften eines erkannten Gesichtes können auch mit Daten von nichtbildaufnehmenden Umfeldsensoren fusioniert/plausibilisiert werden. So kann eine Fusion oder Plausibilisierung mit Daten eines oder mehrerer weiterer Umfeldsensoren erfolgen, auf deren Basis ebenfalls mit signalverarbeitenden Verfahren ein Fußgänger erkannt wurde, welcher dem Gesicht zugeordnet werden kann. Dadurch kann eine höhere Erkennungssicherheit erzielt werden als bei der getrennten Erkennung mit Hilfe der beteiligten Sensoren. Auf Basis dieses fusionierten/plausibilisierten Fußgängers oder Radfahrers kann ein Eingriff erfolgen und damit das Wirkfeld vergrößert werden. Gegenüber Eingriffen auf Basis nur eines Sensors ist eine verringerte Falschauslöserate zu erwarten.
- - In the case of completely recognized pedestrians or cyclists with simultaneous recognition of the associated faces, sensor data fusion will determine a quality of detection of the fused data, which may be higher than the respective individual recognition quality values. In this case, a reduced false triggering rate is to be expected. The sensor data fusion can be done, for example, by linking the position and estimated distance data or plausibility of the position.
- - For partially recognized and therefore less secure pedestrians or cyclists with simultaneous full recognition of their faces is detected by sensor data fusion a recognition quality of the fused data, which may turn out to be higher than the respective individual Erkennungsgüten. Partial detection may be due, for example, to occlusion or incomplete imaging due to the limitations of the image sensing sensor, such as due to the aperture angle. The sensor data fusion can also be done here, for example, by linking the position and estimated distance data or plausibility of the position. Overall, the system can intervene here more often than in known systems that do not allow intervention because of partial recognition and thus to low recognition quality.
- - For detected with high security faces, which is possible for example with many recognized facial features and / or by means of a tracking over several images, but which can not be assigned by the pedestrian / cyclist recognition recognized pedestrian or cyclist, can after a suitable plausibility check on this basis an intervention take place. In this case, a reduced false triggering rate is to be expected.
- Object properties of a detected face can also be fused / plausibilized with data from non-image-capturing environmental sensors. Thus, a merger or plausibility check with data of one or more other environment sensors can be carried out, on the basis of which a pedestrian has also been identified with signal processing methods, which can be assigned to the face. As a result, a higher detection reliability can be achieved than in the separate detection with the help of the sensors involved. On the basis of this fused / plausibilized pedestrian or cyclist, an intervention can be made and thus the effective field can be increased. Compared to interventions based on only one sensor, a reduced false release rate is to be expected.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- BildaufnahmesenorImage capture Senor
- 22
- SensordatenverarbeitungSensor data processing
- 33
- Bewertung und EntscheidungEvaluation and decision
- 44
- Ansteuerung AktorControl Actuator
- 55
- Aktoractuator
- 66
- weitere Sensorenadditional sensors
- 77
- BilddatenvorverarbeitungBilddatenvorverarbeitung
- 88th
- Personenerkennungpeople detection
- 99
- Gesichtserkennungface recognition
- 1010
- Datenfusiondata Fusion
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 7961906 B2 [0006] US 7961906 B2 [0006]
- EP 2288138 A1 [0007] EP 2288138 A1 [0007]
Zitierte Nicht-PatentliteraturCited non-patent literature
- P. Viola et. al.: ”Robust Real-Time Face Detection”, International Journal of Computer Vision 57 (2), 137–154, 2004 [0008] P. Viola et. al .: "Robust Real-Time Face Detection", International Journal of Computer Vision 57 (2), 137-154, 2004 [0008]
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201210009703 DE102012009703A1 (en) | 2012-05-16 | 2012-05-16 | Method for actively protecting e.g. cyclist in environment of motor car, involves determining endangered object by data fusion unit, and providing actuator in car controller when endangerment measure is larger than predetermined threshold |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201210009703 DE102012009703A1 (en) | 2012-05-16 | 2012-05-16 | Method for actively protecting e.g. cyclist in environment of motor car, involves determining endangered object by data fusion unit, and providing actuator in car controller when endangerment measure is larger than predetermined threshold |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102012009703A1 true DE102012009703A1 (en) | 2013-11-21 |
Family
ID=49510775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE201210009703 Pending DE102012009703A1 (en) | 2012-05-16 | 2012-05-16 | Method for actively protecting e.g. cyclist in environment of motor car, involves determining endangered object by data fusion unit, and providing actuator in car controller when endangerment measure is larger than predetermined threshold |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102012009703A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017216088A1 (en) * | 2017-09-12 | 2019-03-14 | Bayerische Motoren Werke Aktiengesellschaft | Control system for steering a towing vehicle with a trailer |
DE102017223264A1 (en) * | 2017-12-19 | 2019-06-19 | Robert Bosch Gmbh | Method and device for driving an actuator |
CN110494866A (en) * | 2017-04-10 | 2019-11-22 | 罗伯特·博世有限公司 | The fusion of the data of multiple sensors for Object identifying |
CN111428759A (en) * | 2020-03-10 | 2020-07-17 | 北京新能源汽车技术创新中心有限公司 | Data fusion method, electronic device and storage medium |
DE102020122023B3 (en) | 2020-08-24 | 2022-02-17 | Technische Universität Ilmenau | Method and device for real-time determination of the target speed of an at least partially autonomously driving vehicle in environments with pedestrian traffic |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002008023A2 (en) * | 2000-07-21 | 2002-01-31 | Trw Inc. | Application of human facial features recognition to automobile safety |
EP2288138A1 (en) | 2008-05-14 | 2011-02-23 | Hitachi, Ltd. | On-vehicle object detection device |
US7961906B2 (en) | 2007-01-03 | 2011-06-14 | Science Applications International Corporation | Human detection with imaging sensors |
-
2012
- 2012-05-16 DE DE201210009703 patent/DE102012009703A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002008023A2 (en) * | 2000-07-21 | 2002-01-31 | Trw Inc. | Application of human facial features recognition to automobile safety |
US7961906B2 (en) | 2007-01-03 | 2011-06-14 | Science Applications International Corporation | Human detection with imaging sensors |
EP2288138A1 (en) | 2008-05-14 | 2011-02-23 | Hitachi, Ltd. | On-vehicle object detection device |
Non-Patent Citations (4)
Title |
---|
P. Viola et. al.: "Robust Real-Time Face Detection", International Journal of Computer Vision 57 (2), 137-154, 2004 |
Suzuki, H.; Minami, M.: Real-time multiple face detection of pedestrian using hybrid GA. In: Intelligent Transportation Systems, Proceedings. The 7th International IEEE Conference on, 2004, 708-713. * |
Xin Zhao; Mao Ye; Yingying Zhu; Chuanzhi Zhong; Jinglei Zhou: Real Time ROI Generation for Pedestrian Detection. In: Computational Intelligence and Software Engineering, CiSE 2009. International Conference on, 2009, 1-4. * |
Xu, Y.W.; Cao, X.B.; Qiao, H.: Pedestrian Detection with Local Feature Assistant. In: Control and Automation, ICCA 2007, IEEE International Conference on, 2007, 1542-1547. * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110494866A (en) * | 2017-04-10 | 2019-11-22 | 罗伯特·博世有限公司 | The fusion of the data of multiple sensors for Object identifying |
CN110494866B (en) * | 2017-04-10 | 2024-02-09 | 罗伯特·博世有限公司 | Fusion of data of multiple sensors for object recognition |
DE102017216088A1 (en) * | 2017-09-12 | 2019-03-14 | Bayerische Motoren Werke Aktiengesellschaft | Control system for steering a towing vehicle with a trailer |
US10549777B2 (en) | 2017-09-12 | 2020-02-04 | Bayerische Motoren Werke Aktiengesellschaft | Control system for steering a tractor vehicle with a trailer |
DE102017223264A1 (en) * | 2017-12-19 | 2019-06-19 | Robert Bosch Gmbh | Method and device for driving an actuator |
CN111428759A (en) * | 2020-03-10 | 2020-07-17 | 北京新能源汽车技术创新中心有限公司 | Data fusion method, electronic device and storage medium |
DE102020122023B3 (en) | 2020-08-24 | 2022-02-17 | Technische Universität Ilmenau | Method and device for real-time determination of the target speed of an at least partially autonomously driving vehicle in environments with pedestrian traffic |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10025678B4 (en) | Camera-based precrash detection system | |
EP2242674B1 (en) | Method and assistance system for detecting objects in the surrounding area of a vehicle | |
EP2710573B1 (en) | Method and apparatus for identifying a possible collision object | |
DE10336638A1 (en) | Apparatus for classifying at least one object in a vehicle environment | |
EP2400473A1 (en) | Method and device for supporting a driver of a vehicle | |
EP1475764A2 (en) | Method and apparatus for calculating the probability of a collision between a vehicle and an object | |
EP3044727B1 (en) | Method and device for detecting objects from depth-resolved image data | |
DE102016226040A1 (en) | Method and device in a motor vehicle for pedestrian protection | |
EP3622709A1 (en) | Method and apparatus for the spatially resolved detection of an object outside a vehicle with the aid of a sensor installed in a vehicle | |
DE102012009703A1 (en) | Method for actively protecting e.g. cyclist in environment of motor car, involves determining endangered object by data fusion unit, and providing actuator in car controller when endangerment measure is larger than predetermined threshold | |
WO2013083384A1 (en) | Method and vehicle assistance system for active warning and/or for navigation aid for preventing a collision of a vehicle body part and/or a vehicle wheel with an object | |
EP1652161B2 (en) | Device for classifying at least one object in the vicinity of a vehicle | |
DE102009014437B4 (en) | Object Recognition System and Method | |
DE102008062915B4 (en) | Detecting people, especially pedestrians | |
DE102011113325A1 (en) | Method for object recognition by image data, involves recognizing objects in vicinity of vehicle and differentiating objects in object types, where distance in Y-direction is determined for all objects recognized in vicinity | |
DE102016220450A1 (en) | Apparatus, means of transport and method for estimating a collision probability between a means of locomotion and an environment object | |
DE102013021840A1 (en) | Method for generating an environment model of a motor vehicle, driver assistance system and motor vehicle | |
DE102010002929A1 (en) | Method for automatic longitudinal guidance of a motor vehicle | |
DE102007007283A1 (en) | Vehicle for recording surroundings makes information on surroundings available to a vehicle's control unit so as to change a vehicle's performance | |
DE102006020930B4 (en) | Environmental monitoring method for a motor vehicle | |
WO2004031877A1 (en) | Method and device for determining the environment of a vehicle | |
DE102015200776A1 (en) | Security system for a vehicle | |
WO2017012743A1 (en) | Method for checking the plausibility of a control decision for safety means | |
DE102019215863A1 (en) | Vehicle, comprising a turning assistance device, turning assistance device and method for operating a vehicle | |
DE102007039110A1 (en) | Driver assistance system i.e. advanced driver assistance system, for motor vehicle, has main warning device cooperating with verification device so that outputting of warning signals is caused by verifying critical driving situation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06V0030190000 Ipc: G06V0040100000 |