DE102012009703A1 - Method for actively protecting e.g. cyclist in environment of motor car, involves determining endangered object by data fusion unit, and providing actuator in car controller when endangerment measure is larger than predetermined threshold - Google Patents

Method for actively protecting e.g. cyclist in environment of motor car, involves determining endangered object by data fusion unit, and providing actuator in car controller when endangerment measure is larger than predetermined threshold Download PDF

Info

Publication number
DE102012009703A1
DE102012009703A1 DE201210009703 DE102012009703A DE102012009703A1 DE 102012009703 A1 DE102012009703 A1 DE 102012009703A1 DE 201210009703 DE201210009703 DE 201210009703 DE 102012009703 A DE102012009703 A DE 102012009703A DE 102012009703 A1 DE102012009703 A1 DE 102012009703A1
Authority
DE
Germany
Prior art keywords
objects
recognition
data
person
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE201210009703
Other languages
German (de)
Inventor
Matthias Waldhauer
Andre Zander
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE201210009703 priority Critical patent/DE102012009703A1/en
Publication of DE102012009703A1 publication Critical patent/DE102012009703A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

The method involves detecting image data of an environment of a motor car using an image-receiving sensor system (1). A fully or partially detected person objects in the environment of the motor car is determined by a person recognition unit. Completely visible face objects are determined by a face detection unit, and an endangered object is determined by a data fusion unit of the detected face objects with the fully or partially detected person objects. A control actuator (4) is provided in a motor car controller when an endangerment measure is larger than a predetermined threshold. An independent claim is also included for a device for actively protecting a person in an environment of a motor car.

Description

Die Erfindung betrifft ein Verfahren zum aktiven Schutz von sich im Umfeld eines Kraftfahrzeugs bewegenden Personen, wie beispielsweise Fußgänger oder Radfahrer, in einem Kraftfahrzeug gemäß dem Oberbegriff des Anspruchs 1 sowie eine entsprechende Vorrichtung gemäß dem Oberbegriff des Anspruchs 7.The invention relates to a method for active protection of persons moving in the environment of a motor vehicle, such as pedestrians or cyclists, in a motor vehicle according to the preamble of claim 1 and a corresponding device according to the preamble of claim 7.

Assistenzsysteme in Kraftfahrzeugen zur Vermeidung oder zumindest zur Verringerung der Folgen eines Unfalls eines Kraftfahrzeugs mit einem Objekt sind bekannt. So versuchen Notbremssysteme eine drohenden Kollision mit einem im Fahrschlauch befindlichen Objekt durch entsprechende Aktionen zu vermeiden oder die Folgen der Kollision zu vermindern, falls das Fahrer innerhalb eines vorgegebenen Zeitfensters erkennbar keine Maßnahmen ergreift. Ist daher ein Zeitpunkt erreicht, ab dem unter Berücksichtigung der Reaktionszeit des Fahrers eine Kollision praktisch unvermeidbar ist, so übernimmt das Assistenzsystem die Steuerung des Fahrzeugs und leitet entsprechende Aktionen ein, wie ein Ausweichmanöver oder eine Vollbremsung.Assistance systems in motor vehicles to avoid or at least reduce the consequences of an accident of a motor vehicle with an object are known. For example, emergency braking systems attempt to avoid an imminent collision with an object in the driving lane by corresponding actions or to reduce the consequences of the collision if the driver does not take any measures within a given time window. Therefore, if a point in time is reached, from which a collision is practically unavoidable taking into account the reaction time of the driver, the assistance system takes over the control of the vehicle and initiates appropriate actions, such as an evasive maneuver or full braking.

Derartige Notbremssysteme können einerseits als selbständige Systeme in Kraftfahrzeugen oder Bestandteil komplexer Assistenzsysteme realisiert sein, wie dies beispielsweise bei einem ACC-System mit Start-Stop-Funktion oder bei einem Einparkassistenten der Fall sein kann. Nun sind derartige Assistenzsysteme mit Notbremsfunktion üblicherweise darauf ausgelegt auf andere, in der Umgebung des Eigenfahrzeugs befindliche Kraftfahrzeuge oder stehende Objekte zu reagieren, also auf relativ große Objekte.On the one hand, such emergency brake systems can be implemented as independent systems in motor vehicles or as part of complex assistance systems, as may be the case, for example, with an ACC system with start-stop function or with a parking assistant. Now such assistance systems with emergency braking function are usually designed to respond to other located in the vicinity of the vehicle or motor vehicles standing objects, so on relatively large objects.

Probleme bereiten vorausschauende Schutzsysteme oder Schutzverfahren, die Kollisionen mit in der Umgebung des Kraftfahrzeugs befindlichen Personen vermeiden oder die Unfallfolgen verringern sollen, da Unfälle zwischen einem Kraftfahrzeug und einer Person im Allgemeinen zu Lasten der am Unfall beteiligten Person geht. Unter Personen werden hier im wesentlichen Fußgänger oder Radfahrer verstanden, aber es kann sich ebenfalls um den Fahrer eines Kleinkraftrades handeln. Eine Person ist in diesem Kontext daher als ein ungeschützter menschlicher Verkehrsteilnehmer zu verstehen.Problems are provided by forward-looking protection systems or protective methods which are intended to avoid collisions with persons in the vicinity of the motor vehicle or to reduce the consequences of accidents, since accidents between a motor vehicle and a person are generally at the expense of the person involved in the accident. People are understood here to be essentially pedestrians or cyclists, but they may also be the driver of a moped. A person should therefore be understood as an unprotected human road user in this context.

Derartige vorausschauende Schutzsysteme für Fußgänger oder Radfahrer bewerten auf Basis von Sensordaten, beispielsweise einer Monokamera oder eines Radars, die Gefährlichkeit einer Verkehrssituation mit einer am Verkehr teilnehmenden Person. In Abhängigkeit von der ermittelten Gefährlichkeit, die durch eine geeignete Maßgröße realisiert ist, werden im Fall einer potentiellen Kollision zwischen einem Kraftfahrzeug und einer am Verkehr teilnehmenden Person, d. h. Fußgänger oder Radfahrer, Aktionen zur Vermeidung einer Kollision oder zur Minderung der Kollisionsfolgen eingeleitet, beispielsweise durch eine Notbremsung.Such predictive protection systems for pedestrians or cyclists evaluate on the basis of sensor data, such as a monocamera or a radar, the danger of a traffic situation with a person participating in the traffic. Depending on the determined dangerousness, which is realized by a suitable measure, in the case of a potential collision between a motor vehicle and a person participating in the traffic, i. H. Pedestrians or cyclists, initiated actions to avoid a collision or to reduce the collision consequences, for example by emergency braking.

Aus der Druckschrift US 7,961,906 B2 ist eine Vorrichtung und ein Verfahren zur Detektion von Personen und deren Unterscheidung vom Hintergrund oder anderen Hindernissen bekannt, wobei eine Infrarotkamera in Verbindung mit mindestens einem weiteren optischen Sensor, wie einer Farbbildkamera, Stereokamera oder einem LIDAR-System, zur Bestimmung der identischen physikalischen Situation verwendet werden, wobei in den jeweiligen Bildern nach geeigneten Merkmalen gesucht wird, aus denen sich die Existenz und die Position einer menschlichen Person herleiten lässt. Das System ist auch in Kraftfahrzeugen einsetzbar.From the publication US 7,961,906 B2 For example, an apparatus and method for detecting people and their discrimination from the background or other obstacles is known, wherein an infrared camera used in conjunction with at least one other optical sensor, such as a color camera, stereo camera or a LIDAR system, to determine the identical physical situation are sought, in the respective images for suitable characteristics, from which the existence and position of a human person can be derived. The system can also be used in motor vehicles.

Ferner ist aus der Druckschrift EP 2 288 138 A1 eine Vorrichtung eines Kraftfahrzeugs zur Detektion von Objekten im Vorfeld des Kraftfahrzeugs bekannt, wobei ein Fußgänger in einem Kamerabild durch die Detektion charakteristischer Kanten in einer Vielzahl von Subbereichen mittels eines Grauwertgradientenverfahrens und deren Bewertung mittels geeigneter Schwellwerte erkannt wird. Es wird also eine Art Konturerkennung einer Person durchgeführt, wobei die Größe der Kontur einer möglichen Person eine Funktion der gemessenen Distanz des aufgefundenen Objekts zur Fahrzeug ist. Nachteilig hierbei ist, dass die aufgefundene Kontur nur dann mit vorgegebener Sicherheit einer menschlichen Person zugeordnet werden kann, wenn die Kontur im wesentlichen vollständig ist, mit anderen Worten, die Kontur der Person ist vollständig im Kamerabild sichtbar und wird nicht teilweise verdeckt.Furthermore, from the document EP 2 288 138 A1 a device of a motor vehicle for the detection of objects in advance of the motor vehicle is known, wherein a pedestrian is detected in a camera image by the detection of characteristic edges in a plurality of sub-areas by means of a gray scale gradient method and their evaluation by means of suitable thresholds. Thus, a type of contour recognition of a person is performed, wherein the size of the contour of a possible person is a function of the measured distance of the object found to the vehicle. The disadvantage here is that the found contour can only be assigned with certainty to a human person when the contour is substantially complete, in other words, the contour of the person is completely visible in the camera image and is not partially obscured.

Neben den Verfahren zur Erkennung von Personen, die im wesentlichen auf der Konturerkennung beruhen, wird insbesondere im Bereich der Computer Vision Verfahren zur Gesichtserkennung in der Entwicklung, wie dies beispielsweise in der Veröffentlichung P. Viola et. al.: ”Robust Real-Time Face Detection”, International Journal of Computer Vision 57 (2), 137–154, 2004 , beschrieben ist.In addition to the methods for the recognition of persons, which are based essentially on the contour recognition, especially in the field of computer vision method of face recognition in development, as for example in the publication P. Viola et. al .: "Robust Real-Time Face Detection", International Journal of Computer Vision 57 (2), 137-154, 2004 , is described.

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zum aktiven Schutz von sich im Umfeld eines Kraftfahrzeugs bewegenden Personen mit verbesserter Erkennungsfähigkeit der Person zu schaffen.The invention has for its object to provide a method and an apparatus for the active protection of moving in the environment of a motor vehicle persons with improved recognition ability of the person.

Diese Aufgabe wird durch ein Verfahren zum aktiven Schutz von sich im Umfeld eines Kraftfahrzeugs bewegenden Personen mit den Merkmalen des Anspruchs 1 und durch ein System zum aktiven Schutz von sich im Umfeld eines Kraftfahrzeugs bewegenden Personen mit den Merkmalen des Anspruchs 7 gelöst. Bevorzugte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.This object is achieved by a method for the active protection of persons moving in the vicinity of a motor vehicle with the features of claim 1 and by a system for active protection of persons moving in the vicinity of a motor vehicle with the features of Claim 7 solved. Preferred embodiments of the invention are the subject of the dependent claims.

Das erfindungsgemäße Verfahren zum aktiven Schutz von sich im Umfeld eines Kraftfahrzeugs befindlichen Personen, insbesondere Fußgänger und Radfahrer, umfasst die folgenden Schritte:

  • – Erfassen von Bilddaten des Umfeldes des Kraftfahrzeugs mittels eines bildaufnehmenden Sensorsystems,
  • – Durchführen einer Bildverarbeitung der erfassten Bilddaten mit – einer Personenerkennung zur Bestimmung von vollständig oder teilweise erkannten Personenobjekten in der Kraftfahrzeugumgebung, – einer Gesichtserkennung zur Bestimmung vollständig sichtbarer Gesichtsobjekte, und – eine Datenfusion erkannter Gesichtsobjekte mit vollständig oder teilweise erkannten Personenobjekten zur Bestimmung potentiell gefährdeter Objekte,
  • – Beurteilung des Maßes der Gefährdung der potentiell gefährdeten Objekte, und
  • – Durchführen eines Eingriffs in die Kraftfahrzeugsteuerung, falls das Gefährdungsmaß größer als eine vorgegebene Schwelle ist.
The method according to the invention for the active protection of persons in the vicinity of a motor vehicle, in particular pedestrians and cyclists, comprises the following steps:
  • Acquiring image data of the environment of the motor vehicle by means of an image-capturing sensor system,
  • Performing an image processing of the acquired image data with a person recognition for the determination of completely or partially recognized person objects in the motor vehicle environment, a face recognition for the determination of completely visible face objects, and a data fusion of recognized face objects with completely or partially recognized person objects for the determination of potentially endangered objects,
  • - assessment of the degree of endangerment of potentially endangered objects, and
  • - Performing an intervention in the motor vehicle control, if the risk measure is greater than a predetermined threshold.

Durch die Zusammenführung von Personenerkennung und Gesichtserkennung können unterschiedliche Merkmale einer Person, d. h. eines Fußgängers bzw. eines Radfahrers, miteinander verknüpft werden, was zu einer verbesserten Erkennungssicherheit und damit zu einer verringerten Falschauslöserate führt. Zur Personenerkennung werden vorzugsweise Mustererkennungsverfahren verwendet, welche beispielsweise nach fußgängerähnlichen Konturen in den erfassten Bildern suchen. Ebenso wird vorzugsweise die Gesichtserkennung mittels Mustererkennungsverfahren durchgeführt, wobei in den erfassten Bildern nach Gesichtern und Gesichtsmerkmalen gezielt gesucht wird. Dabei wird hinsichtlich der Gesichter unterschieden in Frontalansichten, seitlichen Ansichten und gedrehten Ansichten.By combining person recognition and face recognition, different characteristics of a person, i. H. a pedestrian or a cyclist, are linked together, which leads to improved detection reliability and thus to a reduced false triggering rate. For person recognition, pattern recognition methods are preferably used which search, for example, for pedestrian-like contours in the captured images. Likewise, the face recognition is preferably carried out by means of pattern recognition methods, whereby the detected images are searched in a targeted manner for faces and facial features. Faces are distinguished in frontal views, side views and rotated views.

Durch die Verknüpfung von teilweise erkannten Personen mit der Erkennung vollständiger Gesichter besteht die Möglichkeit, dass hier beschriebene Verfahren auf durch Fahrzeug- und Eigenbewegung gefährdete Fußgänger oder Radfahrer reagiert, welche nicht vollständig sichtbar sind, aber deren Gesicht für einen bildaufnehmenden Sensor unverdeckt sichtbar ist.By linking partially recognized persons with the detection of full faces, there is the possibility that the method described here reacts to pedestrians or cyclists vulnerable to vehicle and personal movement, which are not completely visible, but whose face is unobstructedly visible to an image-receiving sensor.

Vorzugsweise wird die Personenerkennung zur Erkennung von Personenobjekten und/oder die Gesichtserkennung zur Erkennung von Gesichtsobjekten über eine vorgegebene Anzahl von zeitsequentiell aufgenommenen Bildern der Bilddaten durchgeführt. Auf diese Weise kann ein sogenanntes Tracking durchgeführt werden, so dass zeitliche Änderungen, also Bewegungen, von Personen und Gesichtern erkennbar und nachvollziehbar werden. Auf diese Weise können auch kurzfristige teilweise Abdeckungen von detektierten Personen berücksichtigt werden.Preferably, the person recognition for the recognition of personal objects and / or the face recognition for the recognition of facial objects over a predetermined number of time sequentially recorded images of the image data is performed. In this way, a so-called tracking can be performed so that temporal changes, ie movements of people and faces are recognizable and comprehensible. In this way, even short-term partial coverage of detected persons can be taken into account.

Weiter bevorzugt umfasst die Datenfusion eine Plausibilisierung der zu fusionierenden und der fusionierten Daten. Eine Plausibilisierung kann anhand einer Verknüpfung von Positions- und Entfernungsdaten der Personen und Gesichter oder allgemein anhand von Positionsdaten erfolgen. Die Plausibilisierung kann für die erkannten oder teilweise erkannten Personen und vollständig erkannten Gesichter erfolgen, es kann auch eine Plausibilisierung der fusionierten Daten erfolgen.More preferably, the data fusion comprises a plausibility check of the data to be merged and the merged data. A plausibility check can be carried out by linking position and distance data of the persons and faces or generally by means of position data. The plausibility check can be done for the detected or partly recognized persons and completely recognized faces, it can also be a plausibility check of the merged data.

Vorzugsweise wird bei vollständiger oder teilweiser Erkennung von Personenobjekten und vollständig sichtbarer Gesichtsobjekte eine Erkennungsgüte der fusionierten Daten bestimmt, die zum Auslösen des Eingriffs in die Kraftfahrzeugsteuerung herangezogen wird. Üblicherweise fällt die Erkennungsgüte fusionierter Daten vollständig erkannter Personen und Gesichter höher aus als die Erkennungsgüte der jeweiligen einzelnen nichtfusionierten Daten. Gleiches trifft auch für die fusionierten Daten von teilweise erkannten Personen und vollständig erkannten Gesichtern zu.Preferably, upon complete or partial detection of personal objects and fully visible facial objects, a quality of recognition of the fused data is determined which is used to trigger the intervention in the motor vehicle control. Usually, the recognition quality of fused data of completely recognized persons and faces is higher than the recognition quality of the respective individual unfused data. The same applies to the merged data of partially recognized persons and fully recognized faces.

Weiter bevorzugt kann bei erkannten Gesichtsobjekten, denen kein Personenobjekt zugeordnet werden kann, ein Auslösen eines Eingriffs in die Kraftfahrzeugsteuerung aufgrund einer Plausibilisierung der Erkennungsgüte des erkannten Gesichtsobjekts erfolgen. Auf diese Weise wird die Sicherheit für Fußgänger und Radfahrer erhöht, da ein Auslösen einer Notfallmaßnahme, beispielsweise Bremsen des Fahrzeugs, auch schon bei einem vollständig erkannten Gesicht erfolgen kann, obwohl keine zu dem Gesicht passende Person aktuell erkannt worden ist. Eine derartige Situation kann beispielsweise vorliegen, wenn die Person soweit verdeckt ist, dass eine Personenkontur im Bild nicht erkennbar ist.Further preferably, in the case of recognized facial objects, to which no person object can be assigned, a triggering of an intervention in the motor vehicle control takes place on the basis of a plausibility check of the recognition quality of the recognized facial object. In this way, the safety for pedestrians and cyclists is increased, since triggering an emergency measure, such as braking the vehicle, even with a fully recognized face can be done, although no person matching the face has been currently recognized. Such a situation may be present, for example, if the person is covered so far that a person contour is not recognizable in the picture.

Weiter bevorzugt erfolgt ein Plausibilisierung und/oder Fusionierung erkannter Gesichtsobjekte mit Daten von nichtbildaufnehmenden Umfeldsensoren. Derartige nichtbildaufnehmende Umfeldsensoren können beispielsweise Radarsensoren sein, die den Abstand eines Hindernisses ermitteln, der zur Plausibilisierung eines vollständig erkannten Gesichts herangezogen werden kann.More preferably, a plausibility check and / or fusion of recognized facial objects with data from non-image-capturing environmental sensors takes place. Such non-image-taking environment sensors can be, for example, radar sensors, which determine the distance of an obstacle that can be used to check the plausibility of a completely recognized face.

Die erfindungsgemäße Vorrichtung zum aktiven Schutz von sich im Umfeld eines Kraftfahrzeugs bewegenden Personen, insbesondere Fußgänger und Radfahrer, zur Durchführung des im Vorangegangenen beschriebenen Verfahrens umfasst:

  • – ein bildaufnehmendes Sensorsystem zur Erfassung von Bilddaten der Umgebung des Kraftfahrzeugs,
  • – eine Einrichtung zur Verarbeitung der Bilddaten des bildaufnehmenden Sensorsystems mit – einer Personenerkennungseinrichtung zur Bestimmung von vollständig oder teilweise erkannten Personenobjekten in der Kraftfahrzeugumgebung, – einer Gesichtserkennungseinrichtung zur Bestimmung vollständig sichtbarer Gesichtsobjekte, und – eine Datenfusionseinrichtung zur Datenfusion erkannter Gesichtsobjekte mit vollständig oder teilweise erkannten Personenobjekte zur Bestimmung gefährdeter Objekte,
  • – eine Bewertungs- und Entscheidungseinrichtung zur Bewertung der gefährdeten Objekte, und
  • – eine Einrichtung zur Ansteuerung von Aktoren basierend auf den Ergebnissen der Bewertung- und Entscheidungseinrichtung.
The device according to the invention for the active protection of persons moving in the environment of a motor vehicle, in particular pedestrians and cyclists, for carrying out the method described above comprises:
  • An image-capturing sensor system for capturing image data of the environment of the motor vehicle,
  • A device for processing the image data of the image-capturing sensor system with a person recognition device for determining fully or partially recognized personal objects in the motor vehicle environment, a face recognition device for determining completely visible facial objects, and a data fusion device for data fusion of recognized facial objects with completely or partially recognized humanoid objects Determination of endangered objects,
  • - an evaluation and decision-making facility for the assessment of vulnerable objects, and
  • A device for controlling actuators based on the results of the evaluation and decision device.

Vorzugsweise weist die Vorrichtung eine Trackingeinrichtung zum Verfolgen von Personenobjekten und Gesichtsobjekten in nacheinander folgenden zeitsequentiellen Bilddaten auf. Mit der Trackingeinrichtung ist eine zeitliche Verfolgung potentiell gefährdeter Objekte möglich, wodurch die Wahrscheinlichkeit einer Falschauslösung eines Noteingriffs in die Fahrzeugsteuerung verringert wird.The device preferably has a tracking device for tracking human objects and facial objects in successive time-sequential image data. With the tracking device, a time tracking of potentially endangered objects is possible, whereby the probability of a false triggering an emergency intervention in the vehicle control is reduced.

Weiter bevorzugt weisen die Personenerkennungseinrichtung und die Gesichtserkennungseinrichtung jeweils eine Mustererkennungseinrichtung auf. Mit anderen Worten, es werden einerseits vorzugsweise Personenkonturen wie Fußgänger oder Radfahrerkonturen in den Bildern und andererseits vorzugsweise Gesichtkonturen und Gesichtsinhalte anhand geeigneter Mustererkennungsalgorithmen gesucht und analysiert.More preferably, the person recognition device and the face recognition device each have a pattern recognition device. In other words, on the one hand, preferably person contours such as pedestrians or cyclist contours in the images and, on the other hand, preferably facial contours and facial contents are sought and analyzed on the basis of suitable pattern recognition algorithms.

Vorzugsweise weist die Datenfusionseinrichtung eine Plausibilitätseinrichtung zur Plausibilisierung der zu fusionierenden oder der fusionierten Daten auf. Mittels der Plausibilisierung wird die Sicherheit bei der Zuordnung der zu fusionierenden Daten verbessert, was die Erkennung potentiell gefährdeter Objekte erhöht.The data fusion device preferably has a plausibility device for checking the plausibility of the data to be merged or the merged data. The plausibility check improves the security of the assignment of the data to be merged, which increases the detection of potentially endangered objects.

Weiter bevorzugt weist die Datenfusionseinrichtung eine Einrichtung zu Bestimmung der Erkennungsgüte der fusionierten Daten auf. Diese Maßnahme erhöht weiter die Erkennung potentiell gefährdeter Objekte und die Zuverlässigkeit einer Auslösung einer Maßnahme.With further preference, the data fusion device has a device for determining the recognition quality of the fused data. This measure further increases the detection of potentially endangered objects and the reliability of triggering a measure.

Ferner kann die Vorrichtung eine nichtbildaufnehmende Umfeldsensorik aufweisen, beispielsweise einen Radarsensor oder einen Lidarsensor zur Abstandsmessung. Mittels der zusätzlichen Umfeldsensorik kann insbesondere der Fall einer Maßnahmenauslösung abgedeckt werden, in dem nur vollständige Gesichtsobjekte erkannt wurden, denen aber kein Personenobjekt zugeordnet werden kann.Furthermore, the device can have a non-image-capturing environment sensor system, for example a radar sensor or a lidar sensor for distance measurement. By means of the additional environment sensor system, it is possible in particular to cover the case of an action triggering in which only complete facial objects have been recognized, but to which no person object can be assigned.

Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnungen erläutert. Dabei zeigtA preferred embodiment of the invention will be explained below with reference to the drawings. It shows

1 die Verarbeitungskette des Verfahrens in schematischer Darstellung, und 1 the processing chain of the process in a schematic representation, and

2 die Sensordatenverarbeitung im Detail. 2 the sensor data processing in detail.

1 zeigt den Ablauf des erfindungsgemäßen Verfahrens und entspricht auch der tatsächlichen Realisierung in Hardware. Dargestellt ist ein Bildaufnahmesensor 1 bzw. Sensorsystem zur Erstellung von Bildern des Umfeldes eines nicht dargestellten Kraftfahrzeugs in vorgegebenen zeitlichen Abständen, d. h. mit vorgegebener Taktung. Der Bildaufnahmesensor 1 kann eine Kamera sein. Nachfolgend dem Bildaufnahmesensor 1 ist eine Sensordatenverarbeitung 2 angeordnet, welche die Bilddaten verarbeitet. Die Ergebnisse der Sensordatenverarbeitung 2 werden in einer Bewertungs- und Entscheidungseinheit 3 bewertet und es wird anhand der Bewertung eine Entscheidung gefällt, ob Maßnahmen, wie beispielsweise ein Bremsmanöver, ein Ausweichmanöver und/oder eine Fahrerwarnung, ergriffen werden sollen. Wird die Entscheidung zu einer Maßnahme gefällt, so wird in der Ansteuereinheit 4 Steuersignale zur Ansteuerung eines oder mehrerer Aktoren erzeugt. In dem entsprechenden Aktor 5, wie Bremse oder Lenkung, wird das Steuersignal umgesetzt und die entsprechende Maßname durchgeführt. 1 shows the sequence of the method according to the invention and also corresponds to the actual implementation in hardware. Shown is an image sensor 1 or sensor system for creating images of the environment of a motor vehicle, not shown, at predetermined time intervals, ie with predetermined timing. The image pickup sensor 1 can be a camera. Below the image pickup sensor 1 is a sensor data processing 2 arranged, which processes the image data. The results of sensor data processing 2 be in an evaluation and decision-making unit 3 assessed and the decision is taken to decide whether to take measures such as a braking maneuver, an evasive maneuver and / or a driver warning. If the decision for a measure is made, then the control unit is activated 4 Control signals for controlling one or more actuators generated. In the corresponding actuator 5 , such as brake or steering, the control signal is converted and performed the appropriate measure name.

2 zeigt die Sensordatenverarbeitung 2 im Detail. Die zeitsequentiellen Bilddaten werden in einer Bilddatenvorverarbeitung 7 vorbereitet, beispielsweise durch eine geeignete Filterung. Nachdem die Bilddaten vorverarbeitet sind, werden sie in einer Personenerkennung 8 auf das Vorhandensein von Personen im Bild untersucht. Parallel dazu werden sie in einer Gesichtserkennung 9 nach dem Vorhandensein von Gesichtern durchsucht. Die Daten gefundener Gesichtsobjekte und Personenobjekte werden in einer Fusionseinrichtung 10 fusioniert, wobei hier auch eine Plausibilitätskontrolle vorgenommen werden kann. Die fusionierten Daten werden dann der Bewertungs- und Entscheidungseinheit 3 der 1 zugeführt. 2 shows the sensor data processing 2 in detail. The time-sequential image data is processed in an image data preprocessing 7 prepared, for example by a suitable filtering. After the image data are preprocessed, they are incorporated in a person recognition 8th examined for the presence of persons in the picture. In parallel, they are in a face recognition 9 searched for the presence of faces. The data of found face objects and person objects are in a fusion device 10 fused, whereby a plausibility check can be made here. The merged data then becomes the valuation and decision unit 3 of the 1 fed.

Zusammenfassend führen die Sensordatenverarbeitung 2 und die Bewertungseinheit 3 dabei die folgenden verschiedene Algorithmen aus:

  • eine Sensordatenverarbeitung 2, umfassend:
  • eine Bildvorverarbeitung 7 mit vorbereitenden Verarbeitungsschritten, wie beispielsweise einer Filterung;
  • – eine Fußgänger- und/oder Radfahrererkennung, d. h. eine Personenerkennung 8, von vollständig oder teilweise im aufgenommenen Bild erkennbaren Fußgängern oder Radfahrern basierend auf einem geeigneten Mustererkennungsverfahren;
  • eine Gesichtserkennung 9, basierend auf einem geeigneten Mustererkennungsverfahren, welche die Fähigkeit aufweist vollständig sichtbare Gesichter in verschiedenen Ansichten, bis hin zur Seitenansicht, bei ausreichend genauer Abbildung zu erkennen;
  • – wobei sowohl Fußgänger-/Radfahrererkennung 8 als auch Gesichtserkennung 9 durch ein Trackingverfahren, nämlich eine zeitliche Verfolgung eines Objekts über mehrere zeitsequenziell aufgenommene und verarbeitete Bilder mit möglicher Plausibilisierung, ergänzt werden können;
  • – einen Sensordatenfusionsalgorithmus 10, welcher die Einheit von auf verschiedenen Wegen, also mittels verschiedener Algorithmen und/oder verschiedener Sensoren, erkannten Objekten ermittelt und deren Eigenschaften je nach Erkennungsgüte verknüpft bzw. kombiniert;
  • – einen Bewertungs- und Entscheidungsalgorithmus 3, welcher anhand der erkannten Objektdaten ein Maß der Gefährdung für erkannte Fußgänger oder Radfahrer ermittelt und darauf basierend einen oder mehrere Aktoren über die jeweilige Ansteuerungseinheit ansteuert (Eingriff).
In summary, the sensor data processing lead 2 and the valuation unit 3 doing the following different algorithms:
  • - a sensor data processing 2 , full:
  • - an image preprocessing 7 with preparatory processing steps, such as filtering;
  • A pedestrian and / or cyclist recognition, ie a person recognition 8th , pedestrians or cyclists recognizable wholly or partially in the captured image, based on a suitable pattern recognition process;
  • - a face recognition 9 based on a suitable pattern recognition method, which has the ability to recognize fully visible faces in different views, right through to the side view, with sufficiently accurate imaging;
  • - where both pedestrian / cyclist recognition 8th as well as face recognition 9 by a tracking method, namely a temporal tracking of an object over several time sequentially recorded and processed images with a possible plausibility, can be supplemented;
  • A sensor data fusion algorithm 10 which determines the unit of objects detected in different ways, ie by means of different algorithms and / or different sensors, and combines or combines their properties depending on the quality of detection;
  • - an evaluation and decision algorithm 3 which, on the basis of the recognized object data, determines a measure of the risk to recognized pedestrians or cyclists and, based on this, actuates one or more actuators via the respective actuation unit (intervention).

Zur Erhöhung der Wirksamkeit von Maßnahmen zur Unfallminderung oder Unfallvermeidung sowie zur Verringerung von Falschauslöseraten werden folgenden Verknüpfungen vorgenommen:

  • – Bei vollständig erkannten Fußgängern oder Radfahrern mit gleichzeitiger Erkennung der zugehörigen Gesichter wird durch Sensordatenfusion eine Erkennungsgüte der fusionierten Daten ermittelt, welche dabei höher ausfallen kann als die jeweils einzelnen Erkennungsgütewerte. Dabei ist eine verringerte Falschauslöserate zu erwarten. Die Sensordatenfusion kann beispielsweise über eine Verknüpfung der Positions- und geschätzten Entfernungsdaten oder Plausibilisierung der Position erfolgen.
  • – Bei teilerkannten und damit weniger sicher erkannten Fußgängern oder Radfahrern mit gleichzeitiger vollständiger Erkennung der zugehörigen Gesichter wird durch Sensordatenfusion eine Erkennungsgüte der fusionierten Daten ermittelt, welche dabei höher ausfallen kann als die jeweils einzelnen Erkennungsgüten. Eine Teilerkennung kann beispielsweise in einer Verdeckung oder unvollständigen Abbildung durch die Beschränkungen des bildaufnehmenden Sensors, wie beispielsweise aufgrund des Öffnungswinkels, begründet sein. Die Sensordatenfusion kann auch hier beispielsweise über eine Verknüpfung der Positions- und geschätzten Entfernungsdaten oder Plausibilisierung der Position erfolgen. Insgesamt kann das System auch hier häufiger eingreifen als bei bekannten Systemen, die keinem Eingriff wegen Teilerkennung und damit zu geringer Erkennungsgüte zulassen.
  • – Bei mit hoher Sicherheit erkannten Gesichtern, was beispielsweise bei vielen erkannten Gesichtmerkmalen und/oder mittels eines Trackings über mehrere Bilder möglich ist, denen aber kein durch die Fußgänger/Radfahrererkennung erkannter Fußgänger oder Radfahrer zugeordnet werden kann, kann nach einer geeigneten Plausibilisierung auf dieser Basis ein Eingriff erfolgen. Dabei ist eine verringerte Falschauslöserate zu erwarten.
  • – Objekteigenschaften eines erkannten Gesichtes können auch mit Daten von nichtbildaufnehmenden Umfeldsensoren fusioniert/plausibilisiert werden. So kann eine Fusion oder Plausibilisierung mit Daten eines oder mehrerer weiterer Umfeldsensoren erfolgen, auf deren Basis ebenfalls mit signalverarbeitenden Verfahren ein Fußgänger erkannt wurde, welcher dem Gesicht zugeordnet werden kann. Dadurch kann eine höhere Erkennungssicherheit erzielt werden als bei der getrennten Erkennung mit Hilfe der beteiligten Sensoren. Auf Basis dieses fusionierten/plausibilisierten Fußgängers oder Radfahrers kann ein Eingriff erfolgen und damit das Wirkfeld vergrößert werden. Gegenüber Eingriffen auf Basis nur eines Sensors ist eine verringerte Falschauslöserate zu erwarten.
To increase the effectiveness of measures to reduce accidents or avoid accidents as well as to reduce false trigger rates, the following links are made:
  • - In the case of completely recognized pedestrians or cyclists with simultaneous recognition of the associated faces, sensor data fusion will determine a quality of detection of the fused data, which may be higher than the respective individual recognition quality values. In this case, a reduced false triggering rate is to be expected. The sensor data fusion can be done, for example, by linking the position and estimated distance data or plausibility of the position.
  • - For partially recognized and therefore less secure pedestrians or cyclists with simultaneous full recognition of their faces is detected by sensor data fusion a recognition quality of the fused data, which may turn out to be higher than the respective individual Erkennungsgüten. Partial detection may be due, for example, to occlusion or incomplete imaging due to the limitations of the image sensing sensor, such as due to the aperture angle. The sensor data fusion can also be done here, for example, by linking the position and estimated distance data or plausibility of the position. Overall, the system can intervene here more often than in known systems that do not allow intervention because of partial recognition and thus to low recognition quality.
  • - For detected with high security faces, which is possible for example with many recognized facial features and / or by means of a tracking over several images, but which can not be assigned by the pedestrian / cyclist recognition recognized pedestrian or cyclist, can after a suitable plausibility check on this basis an intervention take place. In this case, a reduced false triggering rate is to be expected.
  • Object properties of a detected face can also be fused / plausibilized with data from non-image-capturing environmental sensors. Thus, a merger or plausibility check with data of one or more other environment sensors can be carried out, on the basis of which a pedestrian has also been identified with signal processing methods, which can be assigned to the face. As a result, a higher detection reliability can be achieved than in the separate detection with the help of the sensors involved. On the basis of this fused / plausibilized pedestrian or cyclist, an intervention can be made and thus the effective field can be increased. Compared to interventions based on only one sensor, a reduced false release rate is to be expected.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
BildaufnahmesenorImage capture Senor
22
SensordatenverarbeitungSensor data processing
33
Bewertung und EntscheidungEvaluation and decision
44
Ansteuerung AktorControl Actuator
55
Aktoractuator
66
weitere Sensorenadditional sensors
77
BilddatenvorverarbeitungBilddatenvorverarbeitung
88th
Personenerkennungpeople detection
99
Gesichtserkennungface recognition
1010
Datenfusiondata Fusion

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 7961906 B2 [0006] US 7961906 B2 [0006]
  • EP 2288138 A1 [0007] EP 2288138 A1 [0007]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • P. Viola et. al.: ”Robust Real-Time Face Detection”, International Journal of Computer Vision 57 (2), 137–154, 2004 [0008] P. Viola et. al .: "Robust Real-Time Face Detection", International Journal of Computer Vision 57 (2), 137-154, 2004 [0008]

Claims (12)

Verfahren zum aktiven Schutz von sich im Umfeld eines Kraftfahrzeugs befindlichen Personen, insbesondere Fußgänger und Radfahrer, mit den folgenden Schritten: Erfassen von Bilddaten des Umfeldes des Kraftfahrzeugs mittels eines bildaufnehmenden Sensorsystems (1), Durchführen einer Bildverarbeitung der erfassten Bilddaten mit einer Personenerkennung (8) zur Bestimmung von vollständig oder teilweise erkannten Personenobjekten in der Kraftfahrzeugumgebung, einer Gesichtserkennung (9) zur Bestimmung vollständig sichtbarer Gesichtsobjekte, und eine Datenfusion (10) erkannter Gesichtsobjekte mit vollständig oder teilweise erkannten Personenobjekte zur Bestimmung gefährdeter Objekte, Beurteilung (3) des Maßes der Gefährdung eines Objekts, und Durchführen eines Eingriffs (4) in die Kraftfahrzeugsteuerung, falls das Gefährdungsmaß größer als eine vorgegebene Schwelle ist.Method for the active protection of persons in the vicinity of a motor vehicle, in particular pedestrians and cyclists, with the following steps: acquisition of image data of the environment of the motor vehicle by means of an image-receiving sensor system ( 1 ), Performing image processing of the acquired image data with a person recognition ( 8th ) for determining fully or partially recognized personal objects in the motor vehicle environment, a face recognition ( 9 ) for the determination of completely visible facial objects, and a data fusion ( 10 ) recognized face objects with completely or partially recognized person objects for the determination of endangered objects, assessment ( 3 ) of the degree of endangerment of an object, and performing an intervention ( 4 ) in the vehicle control, if the risk measure is greater than a predetermined threshold. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Personenerkennung (8) zur Erkennung von Personenobjekten und/oder die Gesichtserkennung (9) zur Erkennung von Gesichtsobjekten über eine vorgegebene Anzahl von zeitsequentiell aufgenommenen Bildern der Bilddaten durchgeführt wird.Method according to claim 1, characterized in that the person recognition ( 8th ) for recognition of personal objects and / or face recognition ( 9 ) is performed for recognizing facial objects over a predetermined number of time-sequentially recorded images of the image data. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Datenfusion (10) eine Plausibilisierung der zu fusionierenden und der fusionierten Daten umfasst.Method according to one of the preceding claims, characterized in that the data fusion ( 10 ) includes a plausibility check of the data to be merged and the merged data. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass bei vollständiger oder teilweiser Erkennung von Personenobjekten und vollständig sichtbarer Gesichtsobjekte eine Erkennungsgüte der fusionierten Daten bestimmt, die zum Auslösen des Eingriffs (4) in die Kraftfahrzeugsteuerung herangezogen wird.Method according to one of the preceding claims, characterized in that upon complete or partial recognition of person objects and completely visible face objects, a quality of recognition of the fused data is determined, which is used to trigger the intervention ( 4 ) is used in the vehicle control. Verfahren nach einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass bei erkannten Gesichtsobjekten, denen kein Personenobjekt zugeordnet werden kann, ein Auslösen eines Eingriffs (4) in die Kraftfahrzeugsteuerung aufgrund einer Plausibilisierung der Erkennungsgüte des erkannten Gesichtsobjekts erfolgt.Method according to one of claims 2 or 3, characterized in that when detected face objects to which no person object can be assigned, triggering an intervention ( 4 ) takes place in the motor vehicle control due to a plausibility of the recognition quality of the recognized face object. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass ein Plausibilisierung und/oder Fusionierung erkannter Gesichtsobjekte mit Daten von nichtbildaufnehmenden Umfeldsensoren erfolgt.Method according to one of the preceding claims, characterized in that a plausibility check and / or fusion of recognized face objects with data from non-image-capturing environment sensors. Vorrichtung zum aktiven Schutz von sich im Umfeld eines Kraftfahrzeugs bewegenden Personen, insbesondere Fußgänger und Radfahrer, zur Durchführung des Verfahrens nach einem der vorangegangenen Ansprüche, umfassend: ein bildaufnehmendes Sensorsystem (1) zur Erfassung von Bilddaten der Umgebung des Kraftfahrzeugs, einer Einrichtung (2) zur Verarbeitung der Bilddaten des bildaufnehmenden Sensorsystems mit einer Personenerkennungseinrichtung (8) zur Bestimmung von vollständig oder teilweise erkannten Personenobjekten in der Kraftfahrzeugumgebung, einer Gesichtserkennungseinrichtung (9) zur Bestimmung vollständig sichtbarer Gesichtsobjekte, und eine Datenfusionseinrichtung (10) zur Datenfusion erkannter Gesichtsobjekte mit vollständig oder teilweise erkannten Personenobjekte zur Bestimmung gefährdeter Objekte, einer Bewertungs- und Entscheidungseinrichtung (3), einer Einrichtung (4) zur Ansteuerung von Aktoren basierend auf den Ergebnissen der Bewertung- und Entscheidungseinrichtung (2).Device for the active protection of persons moving in the vicinity of a motor vehicle, in particular pedestrians and cyclists, for carrying out the method according to one of the preceding claims, comprising: an image-receiving sensor system ( 1 ) for capturing image data of the environment of the motor vehicle, a device ( 2 ) for processing the image data of the image-receiving sensor system with a person recognition device ( 8th ) for determining fully or partially recognized personal objects in the motor vehicle environment, a face recognition device ( 9 ) for determining fully visible facial objects, and a data fusion device ( 10 ) for data fusion of recognized facial objects with fully or partially recognized personal objects for the determination of endangered objects, an evaluation and decision-making device ( 3 ), an institution ( 4 ) for controlling actuators based on the results of the evaluation and decision device ( 2 ). Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass die Vorrichtung eine Trackingeinrichtung zum Verfolgen von Personenobjekten und Gesichtsobjekten in nacheinander folgenden zeitsequentiellen Bilddaten aufweist.Apparatus according to claim 7, characterized in that the device comprises a tracking device for tracking of human objects and face objects in successive time-sequential image data. Vorrichtung nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass die Personenerkennungseinrichtung (7) und die Gesichtserkennungseinrichtung (8) jeweils eine Mustererkennungseinrichtung aufweisen.Apparatus according to claim 7 or 8, characterized in that the person recognition device ( 7 ) and the face recognition device ( 8th ) each have a pattern recognition device. Vorrichtung nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass die Datenfusionseinrichtung (10) eine Plausibilitätseinrichtung zur Plausibilisierung der zu fusionierenden oder der fusionierten Daten aufweist.Device according to one of claims 7 to 9, characterized in that the data fusion device ( 10 ) has a plausibility device for checking the plausibility of the data to be merged or merged. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass die Datenfusionseinrichtung (10) eine Einrichtung zu Bestimmung der Erkennungsgüte der fusionierten Daten aufweist.Apparatus according to claim 10, characterized in that the data fusion device ( 10 ) has means for determining the quality of recognition of the fused data. Vorrichtung nach einem der Ansprüche 7 bis 11, dadurch gekennzeichnet, dass die Vorrichtung eine nichtbildaufnehmenden Umfeldsensorik (6) aufweist.Device according to one of claims 7 to 11, characterized in that the device comprises a non-image-receiving environment sensor ( 6 ) having.
DE201210009703 2012-05-16 2012-05-16 Method for actively protecting e.g. cyclist in environment of motor car, involves determining endangered object by data fusion unit, and providing actuator in car controller when endangerment measure is larger than predetermined threshold Pending DE102012009703A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201210009703 DE102012009703A1 (en) 2012-05-16 2012-05-16 Method for actively protecting e.g. cyclist in environment of motor car, involves determining endangered object by data fusion unit, and providing actuator in car controller when endangerment measure is larger than predetermined threshold

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201210009703 DE102012009703A1 (en) 2012-05-16 2012-05-16 Method for actively protecting e.g. cyclist in environment of motor car, involves determining endangered object by data fusion unit, and providing actuator in car controller when endangerment measure is larger than predetermined threshold

Publications (1)

Publication Number Publication Date
DE102012009703A1 true DE102012009703A1 (en) 2013-11-21

Family

ID=49510775

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210009703 Pending DE102012009703A1 (en) 2012-05-16 2012-05-16 Method for actively protecting e.g. cyclist in environment of motor car, involves determining endangered object by data fusion unit, and providing actuator in car controller when endangerment measure is larger than predetermined threshold

Country Status (1)

Country Link
DE (1) DE102012009703A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017216088A1 (en) * 2017-09-12 2019-03-14 Bayerische Motoren Werke Aktiengesellschaft Control system for steering a towing vehicle with a trailer
DE102017223264A1 (en) * 2017-12-19 2019-06-19 Robert Bosch Gmbh Method and device for driving an actuator
CN110494866A (en) * 2017-04-10 2019-11-22 罗伯特·博世有限公司 The fusion of the data of multiple sensors for Object identifying
CN111428759A (en) * 2020-03-10 2020-07-17 北京新能源汽车技术创新中心有限公司 Data fusion method, electronic device and storage medium
DE102020122023B3 (en) 2020-08-24 2022-02-17 Technische Universität Ilmenau Method and device for real-time determination of the target speed of an at least partially autonomously driving vehicle in environments with pedestrian traffic

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002008023A2 (en) * 2000-07-21 2002-01-31 Trw Inc. Application of human facial features recognition to automobile safety
EP2288138A1 (en) 2008-05-14 2011-02-23 Hitachi, Ltd. On-vehicle object detection device
US7961906B2 (en) 2007-01-03 2011-06-14 Science Applications International Corporation Human detection with imaging sensors

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002008023A2 (en) * 2000-07-21 2002-01-31 Trw Inc. Application of human facial features recognition to automobile safety
US7961906B2 (en) 2007-01-03 2011-06-14 Science Applications International Corporation Human detection with imaging sensors
EP2288138A1 (en) 2008-05-14 2011-02-23 Hitachi, Ltd. On-vehicle object detection device

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
P. Viola et. al.: "Robust Real-Time Face Detection", International Journal of Computer Vision 57 (2), 137-154, 2004
Suzuki, H.; Minami, M.: Real-time multiple face detection of pedestrian using hybrid GA. In: Intelligent Transportation Systems, Proceedings. The 7th International IEEE Conference on, 2004, 708-713. *
Xin Zhao; Mao Ye; Yingying Zhu; Chuanzhi Zhong; Jinglei Zhou: Real Time ROI Generation for Pedestrian Detection. In: Computational Intelligence and Software Engineering, CiSE 2009. International Conference on, 2009, 1-4. *
Xu, Y.W.; Cao, X.B.; Qiao, H.: Pedestrian Detection with Local Feature Assistant. In: Control and Automation, ICCA 2007, IEEE International Conference on, 2007, 1542-1547. *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110494866A (en) * 2017-04-10 2019-11-22 罗伯特·博世有限公司 The fusion of the data of multiple sensors for Object identifying
CN110494866B (en) * 2017-04-10 2024-02-09 罗伯特·博世有限公司 Fusion of data of multiple sensors for object recognition
DE102017216088A1 (en) * 2017-09-12 2019-03-14 Bayerische Motoren Werke Aktiengesellschaft Control system for steering a towing vehicle with a trailer
US10549777B2 (en) 2017-09-12 2020-02-04 Bayerische Motoren Werke Aktiengesellschaft Control system for steering a tractor vehicle with a trailer
DE102017223264A1 (en) * 2017-12-19 2019-06-19 Robert Bosch Gmbh Method and device for driving an actuator
CN111428759A (en) * 2020-03-10 2020-07-17 北京新能源汽车技术创新中心有限公司 Data fusion method, electronic device and storage medium
DE102020122023B3 (en) 2020-08-24 2022-02-17 Technische Universität Ilmenau Method and device for real-time determination of the target speed of an at least partially autonomously driving vehicle in environments with pedestrian traffic

Similar Documents

Publication Publication Date Title
DE10025678B4 (en) Camera-based precrash detection system
EP2242674B1 (en) Method and assistance system for detecting objects in the surrounding area of a vehicle
EP2710573B1 (en) Method and apparatus for identifying a possible collision object
DE10336638A1 (en) Apparatus for classifying at least one object in a vehicle environment
EP2400473A1 (en) Method and device for supporting a driver of a vehicle
EP1475764A2 (en) Method and apparatus for calculating the probability of a collision between a vehicle and an object
EP3044727B1 (en) Method and device for detecting objects from depth-resolved image data
DE102016226040A1 (en) Method and device in a motor vehicle for pedestrian protection
EP3622709A1 (en) Method and apparatus for the spatially resolved detection of an object outside a vehicle with the aid of a sensor installed in a vehicle
DE102012009703A1 (en) Method for actively protecting e.g. cyclist in environment of motor car, involves determining endangered object by data fusion unit, and providing actuator in car controller when endangerment measure is larger than predetermined threshold
WO2013083384A1 (en) Method and vehicle assistance system for active warning and/or for navigation aid for preventing a collision of a vehicle body part and/or a vehicle wheel with an object
EP1652161B2 (en) Device for classifying at least one object in the vicinity of a vehicle
DE102009014437B4 (en) Object Recognition System and Method
DE102008062915B4 (en) Detecting people, especially pedestrians
DE102011113325A1 (en) Method for object recognition by image data, involves recognizing objects in vicinity of vehicle and differentiating objects in object types, where distance in Y-direction is determined for all objects recognized in vicinity
DE102016220450A1 (en) Apparatus, means of transport and method for estimating a collision probability between a means of locomotion and an environment object
DE102013021840A1 (en) Method for generating an environment model of a motor vehicle, driver assistance system and motor vehicle
DE102010002929A1 (en) Method for automatic longitudinal guidance of a motor vehicle
DE102007007283A1 (en) Vehicle for recording surroundings makes information on surroundings available to a vehicle's control unit so as to change a vehicle's performance
DE102006020930B4 (en) Environmental monitoring method for a motor vehicle
WO2004031877A1 (en) Method and device for determining the environment of a vehicle
DE102015200776A1 (en) Security system for a vehicle
WO2017012743A1 (en) Method for checking the plausibility of a control decision for safety means
DE102019215863A1 (en) Vehicle, comprising a turning assistance device, turning assistance device and method for operating a vehicle
DE102007039110A1 (en) Driver assistance system i.e. advanced driver assistance system, for motor vehicle, has main warning device cooperating with verification device so that outputting of warning signals is caused by verifying critical driving situation

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06V0030190000

Ipc: G06V0040100000