WO2019048206A1 - Interactive object detection during autonomous driving - Google Patents

Interactive object detection during autonomous driving Download PDF

Info

Publication number
WO2019048206A1
WO2019048206A1 PCT/EP2018/072210 EP2018072210W WO2019048206A1 WO 2019048206 A1 WO2019048206 A1 WO 2019048206A1 EP 2018072210 W EP2018072210 W EP 2018072210W WO 2019048206 A1 WO2019048206 A1 WO 2019048206A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
unit
response
classification
classified
Prior art date
Application number
PCT/EP2018/072210
Other languages
German (de)
French (fr)
Inventor
Navid Nourani-Vatani
Andrew Palmer
Original Assignee
Siemens Mobility GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Mobility GmbH filed Critical Siemens Mobility GmbH
Priority to EP18759891.7A priority Critical patent/EP3652722A1/en
Publication of WO2019048206A1 publication Critical patent/WO2019048206A1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/525Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking automatically indicating risk of collision between vehicles in traffic or with pedestrians, e.g. after risk assessment using the vehicle sensor data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • B60Q5/005Arrangement or adaptation of acoustic signal devices automatically actuated
    • B60Q5/006Arrangement or adaptation of acoustic signal devices automatically actuated indicating risk of collision between vehicles or with pedestrians
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • the invention relates to a method for interactive object recognition for a vehicle. Furthermore, the invention relates to an object recognition device. Moreover, the invention relates to a vehicle.
  • ADAS Advanced Driver Assistance
  • Systems perform classifications on the type of a detected object. For example, it is determined whether a detected object is a stationary or a moving object. On this basis, the behavior of the object can be predicted in the future, thus possibly giving a warning and / or avoiding possible collisions with these objects.
  • classification methods can be divided into passive and active classification methods ⁇ to.
  • passive classification objects are classified based on a single or multiple observations, and the choice of viewing perspectives of the objects is not affected by the classification algorithm.
  • active classification future viewing perspectives are selected based on a classification ⁇ profit to improve the classification of the best possible way. That is, the sensor is moved so that the information gain is optimized for the purpose of classification.
  • object types and classifi ⁇ z istsauf block are not sufficiently suitable for active and passive CLASSIFICA ⁇ insurance types.
  • An example of this is a pedestrian who crosses the path of an automated vehicle. The vehicle must determine what type of object is approaching the driveway and whether the object is likely to move in front of the vehicle. To clarify these questions, one can benefit from other observations.
  • the active classification it is possible to adapt or improve the type classification. That is, in this case, it can be more easily determined that the detected object is a pedestrian.
  • neither active nor passive classifications can be used to determine if the pedestrian has recognized the vehicle. The pedestrian moves example ei ⁇ nem walkway toward driveway, so perhaps there is little time to react when the pedestrian does not stop in time at the edge of the walkway.
  • DE 10 2014 111 023 A1 describes a method for controlling an automated vehicle, wherein a planned interaction with a road user is selected in an ambiguous traffic situation, the interaction is signaled to the road user, a reaction of the road user to the interaction is detected and a maneuver is initiated in response to the reaction of the road user.
  • US 2015/0 336 502 A1 describes a method for an autonomous vehicle, with which it is possible to communicate with external observers. In the process, a planned maneuver is displayed in advance.
  • the control unit is configured to cause an air ejection device of the vehicle, a To generate a puff of air to alert the road user to the vehicle.
  • EP 1 842 732 A2 describes a movable bumper of a vehicle which, with the aid of an actuator, can change from a retracted position in parking mode to a retracted position while driving.
  • This object is achieved by a method for interactive object recognition according to claim 1, an object recognition device according to claim 9 and a vehicle according to claim 10.
  • a surrounding area of a vehicle is detected senso ⁇ riell using a sensor unit of the vehicle.
  • a vehicle may be, for example, a motor vehicle or a rail vehicle.
  • the sensor unit may, for example, an image pickup unit, preferably a Ka ⁇ ra.
  • the sensor ⁇ signals include information about the environment of the vehicle. For example, the information may have image data on ⁇ .
  • the vehicle acts mechanically on the detected object from the distance and detects a response of the object.
  • an adaptation of the class identification of the object based on the detected response, whereby mechanical properties of the object relating to the question of whether the object can be pushed aside or not are determined.
  • the described method steps carried out automatically, so that the classification of the object and to adapt in real time and without Perso ⁇ nalaufwand can be performed.
  • the classification can be refined on the basis of the response of the object or extended by additional classifying parameters or parameters. In this way can be adapted specifically to a detected object to an individual situation, the response of the vehicle, such as an automobile or a shift ⁇ nenindi, so that can be avoided unnecessary disturbances and interruptions and evasive maneuvers.
  • a refined classi ⁇ fication is advantageously accomplished interactively, which includes information about the future Ver ⁇ hold the object, in particular regarding a possible collision with the vehicle is.
  • properties of objects can be taken into account, which are not recognizable solely by observation or corresponding image recordings.
  • the object recognition device comprises a sensor unit for imaging a surrounding area of a vehicle.
  • the reerkennungsvor ⁇ device according to the invention also has a Vorklassroissaku for au ⁇ tomatis faced classifying an object on the basis of sensor signals of the sensor unit.
  • Part of the object recognition device according to the invention is also an actuator unit for the targeted mechanical action of the vehicle on the object from the distance to the object.
  • the reer ⁇ recognition device according to the invention also comprises a detection unit for de- tektieren a response of the object by the vehicle.
  • a Nachklassroissaku which is also part of the ER inventive object detection device is used to adjust the classification of the object based on the detected response, mechanical properties of the Ob ⁇ jekts, concerning the question of whether the object beiseite- be pushed or not, are determined.
  • the object recognition device according to the invention shares the advantages of the method according to the invention for the interactive object recognition by a vehicle.
  • the vehicle of the invention has the inventive Whether ⁇ jekterkennungsvortechnisch.
  • the vehicle according to the invention shares the advantages of the object recognition device according to the invention.
  • Some components of the object recognition device according to the invention may possibly be designed after supplementing additional hardware components, such as the actuator unit, the Sen ⁇ sor bain and the detection unit, for the most part in the form of software components. This applies in particular to parts of the pre-classification unit and the post-classification unit. In principle, however, these components can also be partly realized, in particular in the case of particularly fast calculations, in the form of software-supported hardware, for example FPGAs or the like.
  • the required interfaces for example, if it is only about a transfer of data from other software components, be designed as software interfaces. However, they can also be designed as hardware-based interfaces that are controlled by suitable software.
  • a largely software implementation has the advantage that existing computing systems may have been in a vehicle easily nachge by a software update will be ⁇ upgraded to work in the inventive manner.
  • vehicle additional hard ⁇ ware elements such as sensors, actuators or the like may need to be supplemented, so that the vehicle can operate in the erfindungsge- Permitted way.
  • the object is also achieved by a corresponding computer program product with a computer program which can be loaded directly into a memory device of such a computer system, with a program. program sections to perform all steps of the inventive method when the computer program is executed in the computer system.
  • Such a computer program product in addition to the computer ⁇ program optionally additional components, such as documentation and / or additional components, including hardware components, such as hardware keys (dongles, etc.) for using the software.
  • a computer-readable medium for example a memory stick, a hard disk or other transportable or permanently installed data carrier
  • the computer unit may be for example a purpose or more cooperating micropro ⁇ processors or the like.
  • the targeted physical action has one of the following modes of action:
  • the light beams may include, for example, light signals.
  • the mechanical action can be done by direct contact of the vehicle with the object.
  • mechanical egg ⁇ properties of the object for example on the issue of whether the object can push aside or not, ermit ⁇ telt.
  • the emission of light beams comprises one of the following operations:
  • existing illumination devices of the vehicle can be used for signaling anyway, so that additional expenditure for the assembly of additional signal units can be avoided.
  • the emission of acoustic signals comprises one of the following operations:
  • a change in the movement of the object or the object changes its movement behavior or its direction of movement, changing the viewing direction of an object associated with the object
  • the behavior of people on the road in response to the stimulus emitted by the vehicle can be used directly to estimate the future behavior of the detected object.
  • the object in the event that the object is a vehicle, in the event that the object remains, the object classified as parking,
  • the object in the event that the object starts and / or a driver assigned to the object looks towards the vehicle and / or into a rear-view mirror, the object is classified as being moving.
  • the immediately following behavior of vehicles can be determined and included in the classification of the vehicle.
  • the method for interactive object recognition by a vehicle is moved up to the vehicle to the object to determine whether the Whether ⁇ ject can be pushed to the side or can be safely run over to fol- a predetermined route further to the .
  • the journey of a vehicle can be continued in case of success when an obstacle initially stands directly on the track of the vehicle.
  • step 1.1 first image data BD is taken from the surroundings of the vehicle with the aid of an on-board camera of the vehicle.
  • step l.II objects 0 are detected in the image data BD and image sections BAO with the detected objects 0 are determined.
  • step l.III an automatic ⁇ catalyzed classification of the detected objects 0, with first classification data is generated KD1 which 0 assign each of the detected objects in a class classification. For example, a detected object 0 is assigned to the class "pedestrian".
  • the mixture is then stimulates the detected object, for example by a light ⁇ signal ST is emitted toward the object 0 in step 1.
  • a light ⁇ signal ST is emitted toward the object 0 in step 1.
  • the reaction A is at the Step IV by means of sensors, such as a Ka ⁇ mera, detected by the vehicle and there are response data AD, in this case image data, based on the reaction A determined.
  • the response data AD includes the information that the pedestrian is looking toward the vehicle.
  • an object detection device 10 according to an embodiment of the invention is shown schematically.
  • the object recognition device 10 may be part of a vehicle 20, for example, as shown in FIG.
  • the object detection apparatus 10 shown in FIG 2 includes a sensor unit 11 which is adapted to detect a Conversely ⁇ exercise area of the vehicle 20 pictorially.
  • the sensor data acquired by the sensor unit 11, image data BD in this exemplary embodiment, are transmitted to an image evaluation unit 12.
  • the image evaluation unit 12 detek- advantage in the image data BD objects 0 which are located in the region of the vehicle environment Conversely ⁇ 20th Image sections BAO with detected objects 0 are transmitted to a Vorklassroissaku 13 that divides based on these selective oriented image sections BAO the detected objects in Klas ⁇ sen and first classification data KD1 which the image data BAO to the detected objects 0 and which comprise these classes assigned , generated.
  • the classification data KD1 are transmitted to a control unit 14, which activates an actuator unit 15, which then emits a stimulus ST in the direction of the object 0 (see FIG. 3). As mentioned earlier, it may be to act as a light signal.
  • the object 0, beispielswei ⁇ se a pedestrian, the responses to the stimulus ST with a response A.
  • the pedestrian directs his gaze 0 in the direction of the vehicle 20 and to indicate that he has noticed the vehicle 20th
  • the response A of the object 0 is detected by a detection unit 16 and transmitted to a post-classification unit 17.
  • the Nachklassifi ⁇ z iststechnik 17 adjusts the classification of the detected object to the detected 0 response data AD.
  • the classification changes from "pedestrian" to "attentive pedestrian”.
  • the adapted classification data KD2 are then transmitted to a control device 21 (see FIG. 3) of the vehicle 20, which can automatically issue control commands on the basis of this more precise classification.
  • FIG 3 a scenario 30 with a vehicle 20 according to egg ⁇ nem embodiment of the invention is shown schematically.
  • the vehicle 20 includes an obj ekterkennungsvorrich- device 10 according to an embodiment of the invention, as has already been illustrated in FIG 2.
  • the vehicle 20 travels on a path W at the periphery of which an object 0, in this case a pedestrian, is located.
  • the vehicle 20 detects the pedestrian 0 and sends by means of an actuator 15, in this case a signal unit, a light signal ST in the direction of the pedestrian 0.
  • the pedestrian 0 looks attentively in the direction of the vehicle 20, thereby signaling that he noticed the vehicle 20.
  • This response A is detected with the aid of a detection unit 16 of the vehicle 20 and then in the
  • the adapted classification data KD2 generated in this case are subsequently sent to a control device 21 of the vehicle 20, which carries out a control process on the basis of the adapted classification.
  • the Be ⁇ fails given that the vehicle 20 continues at undiminished speed, since the pedestrian 0, the vehicle 20th recognized in time.
  • the control ⁇ device 21 initiates a braking maneuver to avoid endangering the pedestrian 0.

Abstract

The description relates to a method for interactive object detection by a vehicle (20). The method involves a surrounding area of a vehicle (20) being captured by sensor using a sensor unit (11) of the vehicle (20). The sensor signals (BD) of the sensor unit (11) are taken as a basis for ascertaining and classifying the object (0). The vehicle (20) then specifically physically influences the object (0) from the distance from the object (0) and a response of the object (0) is detected by the vehicle (20). Next, the classification of the object (0) is adjusted on the basis of the detected response, with mechanical properties of the object, concerning the question of whether or not the object can be pushed aside, being ascertained. Moreover, an object detection apparatus (10) is described. Additionally, a vehicle (20) is described.

Description

Beschreibung description
Interaktive Objekterkennung beim autonomen Fahren Interactive object recognition during autonomous driving
Die Erfindung betrifft ein Verfahren zur interaktiven Objekterkennung für ein Fahrzeug. Weiterhin betrifft die Erfindung eine Objekterkennungsvorrichtung. Überdies betrifft die Erfindung ein Fahrzeug. The invention relates to a method for interactive object recognition for a vehicle. Furthermore, the invention relates to an object recognition device. Moreover, the invention relates to a vehicle.
Eine wichtige Herausforderung beim automatisierten oder gar autonomen Fahren besteht darin, unbeweglichen und beweglichen Hindernissen in der Umgebung bzw. im Bereich der Fahrstrecke auszuweichen. Autonome Fahrzeuge und einige fortgeschrittene Fahrerassistenzsysteme (ADAS = Advanced Driver AssistanceAn important challenge in automated or even autonomous driving is avoiding immobile and mobile obstacles in the environment or in the area of the route. Autonomous vehicles and some advanced driver assistance systems (ADAS = Advanced Driver Assistance
Systems) führen Klassifizierungen bezüglich der Art eines de- tektierten Objekts durch. Beispielsweise wird ermittelt, ob es sich bei einem detektierten Objekt um ein ruhendes oder ein sich bewegendes Objekt handelt. Auf dieser Basis kann das Verhalten des Objekts in der Zukunft vorhergesagt werden und so gegebenenfalls eine Warnung gegeben werden und/oder mögliche Kollisionen mit diesen Objekten vermieden werden. Systems) perform classifications on the type of a detected object. For example, it is determined whether a detected object is a stationary or a moving object. On this basis, the behavior of the object can be predicted in the future, thus possibly giving a warning and / or avoiding possible collisions with these objects.
Herkömmlich angewandte Klassifizierungsverfahren können in passive und aktive Klassifizierungsmethoden eingeteilt wer¬ den. Bei der passiven Klassifizierung werden Objekte auf Basis einer einzelnen oder von mehreren Beobachtungen klassifiziert, wobei die Wahl der Betrachtungsperspektiven der Objekte nicht durch den Klassifizierungsalgorithmus beeinflusst wird. Bei der aktiven Klassifizierung werden künftige Betrachtungsperspektiven basierend auf einem Klassifizierungs¬ ergebnis gewählt, um die Klassifizierung bestmöglichst zu verbessern. D.h., die Sensorik wird derart bewegt, so dass der Informationsgewinn zum Zweck der Klassifikation optimiert wird. Allerdings gibt es trotzdem Objektarten und Klassifi¬ zierungsaufgaben, für die aktive und passive Klassifizie¬ rungsarten nicht ausreichend geeignet sind. Als Beispiel sei ein Fußgänger genannt, der den Fahrweg eines automatisiert gesteuerten Fahrzeugs kreuzt. Das Fahrzeug muss ermitteln, welche Art von Objekt sich dem Fahrweg nähert und ob sich das Objekt wahrscheinlich vor das Fahrzeug bewegt. Um diese Fragen zu klären, kann von anderen Beobachtungen profitiert werden. Bei der aktiven Klassifizierung ist es möglich, die Typklassifizierung anzupassen bzw. zu verbessern. D.h. in diesem Fall kann leichter ermittelt werden, dass es sich bei dem detektierten Objekt um einen Fußgänger handelt. Jedoch können weder aktive noch passive Klassifizierungen dazu genutzt werden, um zu ermitteln, ob der Fußgänger das Fahrzeug erkannt hat. Bewegt sich der Fußgänger beispielsweise auf ei¬ nem Gehweg in Richtung Fahrstraße, so bleibt eventuell wenig Zeit, um zu reagieren, wenn der Fußgänger nicht rechtzeitig am Rand des Gehwegs anhält. Conventionally used classification methods can be divided into passive and active classification methods ¬ to. In passive classification, objects are classified based on a single or multiple observations, and the choice of viewing perspectives of the objects is not affected by the classification algorithm. In active classification future viewing perspectives are selected based on a classification ¬ profit to improve the classification of the best possible way. That is, the sensor is moved so that the information gain is optimized for the purpose of classification. However, there are still object types and classifi ¬ zierungsaufgaben are not sufficiently suitable for active and passive CLASSIFICA ¬ insurance types. An example of this is a pedestrian who crosses the path of an automated vehicle. The vehicle must determine what type of object is approaching the driveway and whether the object is likely to move in front of the vehicle. To clarify these questions, one can benefit from other observations. With the active classification it is possible to adapt or improve the type classification. That is, in this case, it can be more easily determined that the detected object is a pedestrian. However, neither active nor passive classifications can be used to determine if the pedestrian has recognized the vehicle. The pedestrian moves example ei ¬ nem walkway toward driveway, so perhaps there is little time to react when the pedestrian does not stop in time at the edge of the walkway.
In DE 10 2014 111 023 AI wird ein Verfahren zum Steuern eines automatisierten Fahrzeugs beschrieben, wobei in einer mehrdeutigen Verkehrssituation eine geplante Interaktion mit ei- nem Verkehrsteilnehmer gewählt wird, die Interaktion dem Verkehrsteilnehmer signalisiert wird, eine Reaktion des Verkehrsteilnehmers auf die Interaktion erfasst wird und ein Fahrmanöver in Abhängigkeit von der Reaktion des Verkehrsteilnehmers eingeleitet wird. DE 10 2014 111 023 A1 describes a method for controlling an automated vehicle, wherein a planned interaction with a road user is selected in an ambiguous traffic situation, the interaction is signaled to the road user, a reaction of the road user to the interaction is detected and a maneuver is initiated in response to the reaction of the road user.
In US 2015/0 336 502 AI wird ein Verfahren für ein autonomes Fahrzeug beschrieben, mit dem mit externen Beobachtern kommuniziert werden kann. Dabei wird diesem ein geplantes Manöver vorher angezeigt. US 2015/0 336 502 A1 describes a method for an autonomous vehicle, with which it is possible to communicate with external observers. In the process, a planned maneuver is displayed in advance.
In DE 10 2014 226 187 AI wird eine Steuereinheit für ein Fahrzeug beschrieben, welche dazu eingerichtet ist, DE 10 2014 226 187 A1 describes a control unit for a vehicle which is set up to
Umfelddaten von einem oder mehreren Umfeldsensoren des Fahrzeugs zu empfangen, und anhand der Umfelddaten mindestens ei- nen Verkehrsteilnehmer in einem Umfeld des Fahrzeugs zu de- tektieren. Die Steuereinheit ist dazu eingerichtet, eine Luftausstoß-Vorrichtung des Fahrzeugs zu veranlassen, einen Luftstoß zu generieren, um den Verkehrsteilnehmer auf das Fahrzeug aufmerksam zu machen. Receive environment data from one or more environmental sensors of the vehicle, and on the basis of the environment data at least one road users in an environment of the vehicle to detect. The control unit is configured to cause an air ejection device of the vehicle, a To generate a puff of air to alert the road user to the vehicle.
In DE 10 2013 216 490 AI wird von einem automatisiert gesteu- erten Fahrzeug seine Umgebung sensoriell überwacht. Es werden Objekte in der Umgebung erkannt. Auf Basis der Objekterkennung wird ermittelt, ob eine Kontaktaufnahme mit dem erkann¬ ten Objekt möglich ist. Im Erfolgsfall wird dann ein Signal mit einer Information, wie sich das Objekt verhalten soll, ausgegeben. In DE 10 2013 216 490 AI, its environment is sensor-monitored by an automated controlled vehicle. Objects in the environment are detected. Based on the object recognition is determined whether a contact with the erkann ¬ th object is possible. If successful, a signal with information about how the object should behave is then output.
In EP 1 842 732 A2 wird eine bewegliche Stoßstange eines Fahrzeugs beschrieben, welche mit Hilfe eines Aktuators von einer ausgezogenen Position im Parkmodus in eine zurückgezo- gene Position während der Fahrt wechseln kann. EP 1 842 732 A2 describes a movable bumper of a vehicle which, with the aid of an actuator, can change from a retracted position in parking mode to a retracted position while driving.
Es besteht also die Aufgabe, eine Objekterkennung zu reali¬ sieren, mit der das Verhalten von Objekten genauer eingeschätzt werden kann. There is therefore the task of object recognition to reali ¬ Sieren, with the behavior of objects can be estimated more accurately.
Diese Aufgabe wird durch ein Verfahren zur interaktiven Objekterkennung gemäß Patentanspruch 1, eine Objekterkennungsvorrichtung gemäß Patentanspruch 9 und ein Fahrzeug gemäß Patentanspruch 10 gelöst. This object is achieved by a method for interactive object recognition according to claim 1, an object recognition device according to claim 9 and a vehicle according to claim 10.
Bei dem erfindungsgemäßen Verfahren zur interaktiven Objekterkennung durch ein Fahrzeug wird ein Umgebungsbereich eines Fahrzeugs mit Hilfe einer Sensoreinheit des Fahrzeugs senso¬ riell erfasst. Ein Fahrzeug kann zum Beispiel ein Kraftfahr- zeug oder ein Schienenfahrzeug sein. Die Sensoreinheit kann zum Beispiel eine Bildaufnahmeeinheit, vorzugsweise eine Ka¬ mera, aufweisen. Auf Basis der Sensorsignale der Sensorein¬ heit wird das Objekt ermittelt und klassifiziert. Die Sensor¬ signale umfassen Informationen über die Umgebung des Fahr- zeugs. Beispielsweise können die Informationen Bilddaten auf¬ weisen. Darauf wirkt das Fahrzeug gezielt mechanisch aus der Distanz auf das detektierte Objekt ein und detektiert eine Antwort des Objekts. Weiterhin erfolgt ein Anpassen der Klas- sifizierung des Objekts auf Basis der detektierten Antwort, wobei mechanische Eigenschaften des Objekts, betreffend die Frage, ob sich das Objekt beiseiteschieben lässt oder nicht, ermittelt werden. Vorzugsweise erfolgen die beschriebenen Verfahrensschritte automatisiert, so dass die Klassifizierung des Objekts und deren Anpassung in Echtzeit und ohne Perso¬ nalaufwand durchgeführt werden kann. Vorteilhaft kann die Klassifizierung auf Basis der Antwort des Objekts verfeinert werden bzw. um zusätzliche klassifizierende Größen bzw. Para- meter erweitert werden. Auf diese Weise kann die Reaktion des Fahrzeugs, beispielsweise ein Kraftfahrzeug oder ein Schie¬ nenfahrzeug, auf ein detektiertes Objekt an eine individuelle Situation genauer angepasst werden, so dass unnötige Störungen und Unterbrechungen sowie Ausweichmanöver unterbleiben können. Vorteilhaft wird interaktiv eine verfeinerte Klassi¬ fizierung erreicht, welche Auskunft über das zukünftige Ver¬ halten des Objekts, insbesondere in Bezug auf eine mögliche Kollision mit dem Fahrzeug, gibt. Vorteilhaft können dabei Eigenschaften von Objekten mitberücksichtigt werden, welche allein durch Beobachtung bzw. entsprechende Bildaufnahmen nicht erkennbar sind. In the method according to the invention for the interactive object recognition by a vehicle, a surrounding area of a vehicle is detected senso ¬ riell using a sensor unit of the vehicle. A vehicle may be, for example, a motor vehicle or a rail vehicle. The sensor unit may, for example, an image pickup unit, preferably a Ka ¬ ra. On the basis of the sensor signals of Sensorein ¬ standardize the object is determined and classified. The sensor ¬ signals include information about the environment of the vehicle. For example, the information may have image data on ¬. Thereupon the vehicle acts mechanically on the detected object from the distance and detects a response of the object. Furthermore, an adaptation of the class identification of the object based on the detected response, whereby mechanical properties of the object relating to the question of whether the object can be pushed aside or not are determined. Preferably, the described method steps carried out automatically, so that the classification of the object and to adapt in real time and without Perso ¬ nalaufwand can be performed. Advantageously, the classification can be refined on the basis of the response of the object or extended by additional classifying parameters or parameters. In this way can be adapted specifically to a detected object to an individual situation, the response of the vehicle, such as an automobile or a shift ¬ nenfahrzeug, so that can be avoided unnecessary disturbances and interruptions and evasive maneuvers. A refined classi ¬ fication is advantageously accomplished interactively, which includes information about the future Ver ¬ hold the object, in particular regarding a possible collision with the vehicle is. Advantageously, properties of objects can be taken into account, which are not recognizable solely by observation or corresponding image recordings.
Die erfindungsgemäße Objekterkennungsvorrichtung umfasst eine Sensoreinheit zum bildlichen Erfassen eines Umgebungsbereichs eines Fahrzeugs. Die erfindungsgemäße Objekterkennungsvor¬ richtung weist zudem eine Vorklassifizierungseinheit zum au¬ tomatisierten Klassifizieren eines Objekts auf Basis von Sensorsignalen der Sensoreinheit auf. Teil der erfindungsgemäßen Objekterkennungsvorrichtung ist auch eine Aktoreinheit zum gezielten mechanischen Einwirken des Fahrzeugs auf das Objekt aus der Distanz zu dem Objekt. Die erfindungsgemäße Objekter¬ kennungsvorrichtung weist auch eine Detektionseinheit zum De- tektieren einer Antwort des Objekts durch das Fahrzeug auf. Eine Nachklassifizierungseinheit, die ebenfalls Teil der er- findungsgemäßen Objekterkennungsvorrichtung ist, dient dazu, die Klassifizierung des Objekts auf Basis der detektierten Antwort anzupassen, wobei mechanische Eigenschaften des Ob¬ jekts, betreffend die Frage, ob sich das Objekt beiseite- schieben lässt oder nicht, ermittelt werden. Die erfindungs¬ gemäße Objekterkennungsvorrichtung teilt die Vorteile des erfindungsgemäßen Verfahrens zur interaktiven Objekterkennung durch ein Fahrzeug. The object recognition device according to the invention comprises a sensor unit for imaging a surrounding area of a vehicle. The Objekterkennungsvor ¬ device according to the invention also has a Vorklassifizierungseinheit for au ¬ tomatisierten classifying an object on the basis of sensor signals of the sensor unit. Part of the object recognition device according to the invention is also an actuator unit for the targeted mechanical action of the vehicle on the object from the distance to the object. The Objekter ¬ recognition device according to the invention also comprises a detection unit for de- tektieren a response of the object by the vehicle. A Nachklassifizierungseinheit, which is also part of the ER inventive object detection device is used to adjust the classification of the object based on the detected response, mechanical properties of the Ob ¬ jekts, concerning the question of whether the object beiseite- be pushed or not, are determined. The object recognition device according to the invention shares the advantages of the method according to the invention for the interactive object recognition by a vehicle.
Das erfindungsgemäße Fahrzeug weist die erfindungsgemäße Ob¬ jekterkennungsvorrichtung auf. Das erfindungsgemäße Fahrzeug teilt die Vorteile der erfindungsgemäßen Objekterkennungsvorrichtung . The vehicle of the invention has the inventive Whether ¬ jekterkennungsvorrichtung. The vehicle according to the invention shares the advantages of the object recognition device according to the invention.
Einige Komponenten der erfindungsgemäßen Objekterkennungsvorrichtung können eventuell nach Ergänzung zusätzlicher Hardwarekomponenten, wie zum Beispiel die Aktoreinheit, die Sen¬ soreinheit und die Detektionseinheit , zum überwiegenden Teil in Form von Softwarekomponenten ausgebildet sein. Dies betrifft insbesondere Teile der Vorklassifizierungseinheit und der Nachklassifizierungseinheit. Grundsätzlich können diese Komponenten aber auch zum Teil, insbesondere wenn es um besonders schnelle Berechnungen geht, in Form von softwareun- terstützter Hardware, beispielsweise FPGAs oder dergleichen, realisiert sein. Ebenso können die benötigten Schnittstellen, beispielsweise wenn es nur um eine Übernahme von Daten aus anderen Softwarekomponenten geht, als Softwareschnittstellen ausgebildet sein. Sie können aber auch als hardwaremäßig auf- gebaute Schnittstellen ausgebildet sein, die durch geeignete Software angesteuert werden. Some components of the object recognition device according to the invention may possibly be designed after supplementing additional hardware components, such as the actuator unit, the Sen ¬ soreinheit and the detection unit, for the most part in the form of software components. This applies in particular to parts of the pre-classification unit and the post-classification unit. In principle, however, these components can also be partly realized, in particular in the case of particularly fast calculations, in the form of software-supported hardware, for example FPGAs or the like. Likewise, the required interfaces, for example, if it is only about a transfer of data from other software components, be designed as software interfaces. However, they can also be designed as hardware-based interfaces that are controlled by suitable software.
Eine weitgehend softwaremäßige Realisierung hat den Vorteil, dass auch schon bisher in einem Fahrzeug vorhandene Rechner- Systeme auf einfache Weise durch ein Software-Update nachge¬ rüstet werden können, um auf die erfindungsgemäße Weise zu arbeiten. Eventuell müssen indem Fahrzeug zusätzliche Hard¬ wareelemente, wie zum Beispiel Sensoren, Aktoren oder ähnliches ergänzt werden, damit das Fahrzeug auf die erfindungsge- mäße Weise funktionieren kann. Insofern wird die Aufgabe auch durch ein entsprechendes Computerprogrammprodukt mit einem Computerprogramm gelöst, welches direkt in eine Speichereinrichtung eines solchen Rechnersystems ladbar ist, mit Pro- grammabschnitten, um alle Schritte des erfindungsgemäßen Verfahrens auszuführen, wenn das Computerprogramm in dem Rechnersystem ausgeführt wird. Ein solches Computerprogrammprodukt kann neben dem Computer¬ programm gegebenenfalls zusätzliche Bestandteile, wie z.B. eine Dokumentation und/oder zusätzliche Komponenten, auch Hardware-Komponenten, wie z.B. Hardware-Schlüssel (Dongles etc.) zur Nutzung der Software, umfassen. A largely software implementation has the advantage that existing computing systems may have been in a vehicle easily nachge by a software update will be ¬ upgraded to work in the inventive manner. By vehicle additional hard ¬ ware elements, such as sensors, actuators or the like may need to be supplemented, so that the vehicle can operate in the erfindungsge- Permitted way. In this respect, the object is also achieved by a corresponding computer program product with a computer program which can be loaded directly into a memory device of such a computer system, with a program. program sections to perform all steps of the inventive method when the computer program is executed in the computer system. Such a computer program product , in addition to the computer ¬ program optionally additional components, such as documentation and / or additional components, including hardware components, such as hardware keys (dongles, etc.) for using the software.
Zum Transport zur Speichereinrichtung des Rechnersystems und/oder zur Speicherung an dem Rechnersystem kann ein computerlesbares Medium, beispielsweise ein Memorystick, eine Festplatte oder ein sonstiger transportabler oder fest einge- bauter Datenträger dienen, auf welchem die von einer Rechnereinheit einlesbaren und ausführbaren Programmabschnitte des Computerprogramms gespeichert sind. Die Rechnereinheit kann z.B. hierzu einen oder mehrere zusammenarbeitende Mikropro¬ zessoren oder dergleichen aufweisen. For transport to the storage device of the computer system and / or for storage on the computer system, a computer-readable medium, for example a memory stick, a hard disk or other transportable or permanently installed data carrier can be used, on which the program sections of the computer program which can be read and executed by a computer unit are stored are. The computer unit may be for example a purpose or more cooperating micropro ¬ processors or the like.
Die abhängigen Ansprüche sowie die nachfolgende Beschreibung enthalten jeweils besonders vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung. Dabei können insbesondere die Ansprüche einer Anspruchskategorie auch analog zu den ab- hängigen Ansprüchen einer anderen Anspruchskategorie und deren Beschreibungsteilen weitergebildet sein. Zudem können im Rahmen der Erfindung auch die verschiedenen Merkmale unterschiedlicher Ausführungsbeispiele und Ansprüche auch zu neuen Ausführungsbeispielen kombiniert werden. The dependent claims and the following description each contain particularly advantageous embodiments and further developments of the invention. In this case, in particular, the claims of one category of claims can also be developed analogously to the dependent claims of another category of claims and their descriptive parts. In addition, in the context of the invention, the various features of different embodiments and claims can also be combined to form new embodiments.
In einer Ausgestaltung des erfindungsgemäßen Verfahrens zur interaktiven Objekterkennung durch ein Fahrzeug weist das gezielte physikalische Einwirken eine der folgenden Wirkungsarten auf: In one embodiment of the method according to the invention for interactive object recognition by a vehicle, the targeted physical action has one of the following modes of action:
- Aussenden von Lichtstrahlen, - emitting light rays,
Aussenden von akustischen Signalen  Sending out acoustic signals
mechanisches Einwirken auf das Objekt durch direkten Kontakt des Fahrzeugs mit dem Objekt. Die Lichtstrahlen können zum Beispiel Lichtsignale umfassen. Durch die genannten Signale kann eine Reaktion der zu klassifizierenden Objekte aus der Ferne hervorgerufen werden, ohne dass diese in direkten Kontakt mit dem Fahrzeug kommen, was die Sicherheit für die Objekte sowie das Fahrzeug erhöht. Das mechanische Einwirken kann durch direkten Kontakt des Fahrzeugs mit dem Objekt erfolgen. Dabei können mechanische Ei¬ genschaften des Objekts, zum Beispiel betreffend die Frage, ob sich das Objekt beiseiteschieben lässt oder nicht, ermit¬ telt werden. mechanical action on the object by direct contact of the vehicle with the object. The light beams may include, for example, light signals. By means of the signals mentioned, a reaction of the objects to be classified can be brought about remotely, without them coming into direct contact with the vehicle, which increases the safety for the objects as well as the vehicle. The mechanical action can be done by direct contact of the vehicle with the object. Here, mechanical egg ¬ properties of the object, for example on the issue of whether the object can push aside or not, ermit ¬ telt.
In einer Variante des erfindungsgemäßen Verfahrens zur interaktiven Objekterkennung durch ein Fahrzeug umfasst das Aus- senden von Lichtstrahlen einen der folgenden Vorgänge: In a variant of the method according to the invention for interactive object recognition by a vehicle, the emission of light beams comprises one of the following operations:
Verwenden von Warnlichtern des Fahrzeugs,  Using warning lights of the vehicle,
Verwenden von Frontlichtern des Fahrzeugs.  Using front lights of the vehicle.
Vorteilhaft können zur Signalgebung ohnehin vorhandene Be- leuchtungseinrichtungen des Fahrzeugs genutzt werden, so dass ein zusätzlicher Aufwand für die Montage zusätzlicher Signaleinheiten vermieden werden kann. Advantageously, existing illumination devices of the vehicle can be used for signaling anyway, so that additional expenditure for the assembly of additional signal units can be avoided.
In einer Ausgestaltung des erfindungsgemäßen Verfahrens zur interaktiven Objekterkennung durch ein Fahrzeug umfasst das Aussenden von akustischen Signalen einen der folgenden Vorgänge : In one embodiment of the method according to the invention for interactive object recognition by a vehicle, the emission of acoustic signals comprises one of the following operations:
akustisches Warnsignal aussenden,  send out an acoustic warning signal,
akustische Rückwärtsfahrsignal aussenden.  send out acoustic reverse signal.
Vorteilhaft kann auch bei der Aussendung von akustischen Signalen auf bereits vorhandene Signalgebereinheiten zurückge¬ griffen werden, wodurch der Umrüstungsaufwand für die Realisierung des erfindungsgemäßen Verfahrens reduziert werden kann. Advantageously, even in the transmission of acoustic signals to existing signal generator units zurückge ¬ be attacked, whereby the Umrüstungsaufwand for the realization of the method according to the invention can be reduced.
In einer Variante des erfindungsgemäßen Verfahrens zur interaktiven Objekterkennung durch ein Fahrzeug wird für den Fall, 0 In a variant of the method according to the invention for interactive object recognition by a vehicle, in the event 0
o  O
dass die Antwort des Objekts eine der folgenden Aktionen um- fasst : that the answer of the object includes one of the following actions:
eine Änderung der Bewegung des Objekts bzw. das Objekt ändert sein Bewegungsverhalten bzw. sein Bewegungsrichtung, - Ändern der Blickrichtung einer dem Objekt zugeordneten  a change in the movement of the object or the object changes its movement behavior or its direction of movement, changing the viewing direction of an object associated with the object
Person,  Person,
eine dem Objekt zugeordnete Person als unaufmerksam klassifi¬ ziert, und wird für den Fall, dass die dem Objekt zugeordnete Person aufblickt und/oder um sich blickt, die dem Objekt zu- geordnete Person als aufmerksam klassifiziert. Vorteilhaft kann das Verhalten von Personen im Straßenverkehr in Reaktion auf den von dem Fahrzeug ausgesandten Stimulus direkt dazu genutzt werden, das zukünftige Verhalten des detektierten Objekts einzuschätzen. a person associated with the object classifi ¬ sheet as inattentive, and, in the case that the object associated with the person looks up and / or to look up that person associated with the object classified as attention. Advantageously, the behavior of people on the road in response to the stimulus emitted by the vehicle can be used directly to estimate the future behavior of the detected object.
In einer Ausgestaltung des erfindungsgemäßen Verfahrens zur interaktiven Objekterkennung durch ein Fahrzeug wird für den Fall, dass es sich bei dem Objekt um ein Fahrzeug handelt, für den Fall, dass das Objekt stehen bleibt, das Objekt als parkend klassifiziert, In one embodiment of the inventive method for interactive object recognition by a vehicle, in the event that the object is a vehicle, in the event that the object remains, the object classified as parking,
und für den Fall, dass das Objekt startet und/oder ein dem Objekt zugeordneter Fahrer in Richtung des Fahrzeugs und/oder in einen Rückspiegel blickt, das Objekt als sich bewegend klassifiziert.  and in the event that the object starts and / or a driver assigned to the object looks towards the vehicle and / or into a rear-view mirror, the object is classified as being moving.
Vorteilhaft kann das unmittelbar folgende Verhalten von Fahrzeugen ermittelt werden und in die Klassifizierung des Fahrzeugs miteinbezogen werden. In einer Variante des erfindungsgemäßen Verfahrens zur interaktiven Objekterkennung durch ein Fahrzeug wird mit dem Fahrzeug auf das Objekt aufgefahren, um zu ermitteln, ob das Ob¬ jekt zur Seite geschoben werden kann oder sicher überfahren werden kann, um einer vorbestimmten Fahrtroute weiter zu fol- gen. Stehen Gegenstände im Fahrweg des Fahrzeugs, so kann es sinnvoll sein, zu testen, ob das Objekt mit Hilfe des Fahr¬ zeugs aus dem Fahrweg entfernbar ist. Vorteilhaft kann die Fahrt eines Fahrzeugs im Erfolgsfall auch dann fortgesetzt werden, wenn zunächst ein Hindernis direkt auf dem Fahrweg des Fahrzeugs steht. Advantageously, the immediately following behavior of vehicles can be determined and included in the classification of the vehicle. In a variant of the method for interactive object recognition by a vehicle is moved up to the vehicle to the object to determine whether the Whether ¬ ject can be pushed to the side or can be safely run over to fol- a predetermined route further to the . Are objects in the path of the vehicle, it may be useful to test whether the object by means of the driving ¬ zeugs from the track is removable. Advantageously, the journey of a vehicle can be continued in case of success when an obstacle initially stands directly on the track of the vehicle.
Die Erfindung wird im Folgenden unter Hinweis auf die beige¬ fügten Figuren anhand von Ausführungsbeispielen noch einmal näher erläutert. Es zeigen: ein Flussdiagramm, welches ein Verfahren zur interak tiven Objekterkennung durch ein Fahrzeug gemäß einem Ausführungsbeispiel der Erfindung veranschaulicht, eine schematische Darstellung einer Obj ekterkennungs Vorrichtung gemäß einem Ausführungsbeispiel der Er¬ findung, The invention will be explained in more detail below with reference to the beige ¬ added figures using exemplary embodiments. There show: a flow chart illustrating a method for interac tive object recognition by a vehicle according to an embodiment of the invention, a schematic representation of a Obj ekterkennungs apparatus according to an exemplary embodiment of the invention ¬,
eine schematische Darstellung eines Fahrzeugs gemäß einem Ausführungsbeispiel der Erfindung.  a schematic representation of a vehicle according to an embodiment of the invention.
In FIG 1 ist ein Flussdiagramm 100 gezeigt, mit dem ein Verfahren zur interaktiven Objekterkennung durch ein Fahrzeug gemäß einem Ausführungsbeispiel der Erfindung veranschaulicht wird. Bei dem Schritt 1.1 werden zunächst Bilddaten BD von der Umgebung des Fahrzeugs mit Hilfe einer bordseitigen Kamera des Fahrzeugs aufgenommen. Anschließend werden bei dem Schritt l.II in den Bilddaten BD Objekte 0 detektiert und Bildausschnitte BAO mit den detektierten Objekten 0 ermit- telt. Weiterhin erfolgt bei dem Schritt l.III eine automati¬ sierte Klassifizierung der detektierten Objekte 0, wobei erste Klassifizierungsdaten KD1 erzeugt werden, welche jedem der detektierten Objekte 0 eine Klasseneinteilung zuordnen. Beispielsweise wird ein detektiertes Objekt 0 der Klasse „Fuß- gänger" zugeordnet. 1 shows a flow chart 100, with which a method for interactive object recognition by a vehicle according to an exemplary embodiment of the invention is illustrated. In step 1.1, first image data BD is taken from the surroundings of the vehicle with the aid of an on-board camera of the vehicle. Subsequently, in the case of step l.II, objects 0 are detected in the image data BD and image sections BAO with the detected objects 0 are determined. Furthermore, carried out at the step l.III an automatic ¬ catalyzed classification of the detected objects 0, with first classification data is generated KD1 which 0 assign each of the detected objects in a class classification. For example, a detected object 0 is assigned to the class "pedestrian".
Anschließend wird bei dem Schritt 1. IV auf das detektierte Objekt stimulierend eingewirkt, indem zum Beispiel ein Licht¬ signal ST in Richtung des Objekts 0 ausgesendet wird. Das Ob¬ jekt 0, in diesem Fall ein Fußgänger, antwortet mit einer Reaktion A auf das Lichtsignal ST, beispielsweise, indem es in Richtung des Fahrzeugs blickt oder an einem Bordstein an dem Fahrweg des Fahrzeugs anhält. Die Reaktion A wird bei dem Schritt l.V mit Hilfe von Sensoren, beispielsweise einer Ka¬ mera, von dem Fahrzeug erfasst und es werden Antwortdaten AD, in diesem Fall Bilddaten, auf Basis der Reaktion A ermittelt. Beispielsweise umfassen die Antwortdaten AD die Information, dass der Fußgänger in Richtung des Fahrzeugs blickt. Nachfol¬ gend erfolgt bei dem Schritt l.VI auf Basis der Antwortdaten AD eine Nachklassifizierung des detektierten Objekts 0 unter Erzeugung von zweiten Klassifizierungsdaten KD2. Beispielsweise wird das Objekt in die Klasse „aufmerksamer Fußgänger" eingeteilt, so dass auf Basis dieser zweiten Klassifizie¬ rungsdaten KD2 eine Steuerungsentscheidung durch das Fahrzeug gefällt werden kann, nämlich, dass der Fußgänger nicht gefährdet ist und eine Kollision des Fußgängers mit dem Fahr¬ zeug ausgeschlossen werden kann. The mixture is then stimulates the detected object, for example by a light ¬ signal ST is emitted toward the object 0 in step 1. IV. The Whether ¬ ject 0, in this case, a pedestrian, replies with a response A to the light signal ST, for example, by looking in the direction of the vehicle or stops on a curb on the path of the vehicle. The reaction A is at the Step IV by means of sensors, such as a Ka ¬ mera, detected by the vehicle and there are response data AD, in this case image data, based on the reaction A determined. For example, the response data AD includes the information that the pedestrian is looking toward the vehicle. Occurs Nachfol ¬ quietly at step l.VI on the basis of the answer data AD, a Nachklassifizierung 0 of the detected object to generate the second classification data KD2. For example, the object is classified into the class "attentive pedestrian", so that a control decision can be made by the vehicle on the basis of this second CLASSIFICA ¬ approximate data KD2, namely that the pedestrian is not compromised, and a collision of the pedestrian with the driving ¬ convincing can be excluded.
In FIG 2 ist eine Objekterkennungsvorrichtung 10 gemäß einem Ausführungsbeispiel der Erfindung schematisch dargestellt. Die Objekterkennungsvorrichtung 10 kann zum Beispiel Teil eines Fahrzeugs 20 sein, wie es in FIG 3 dargestellt ist. Die in FIG 2 gezeigte Objekterkennungsvorrichtung 10 umfasst eine Sensoreinheit 11, welche dazu eingerichtet ist, einen Umge¬ bungsbereich des Fahrzeugs 20 bildlich zu erfassen. Die von der Sensoreinheit 11 erfassten Sensordaten, in diesem Ausführungsbeispiel Bilddaten BD, werden an eine Bildauswertungs- einheit 12 übermittelt. Die Bildauswertungseinheit 12 detek- tiert in den Bilddaten BD Objekte 0, welche sich in dem Umge¬ bungsbereich des Fahrzeugs 20 befinden. Bildausschnitte BAO mit detektierten Objekten 0 werden an eine Vorklassifizierungseinheit 13 übermittelt, welche auf Basis dieser selek- tierten Bildausschnitte BAO die detektierten Objekte in Klas¬ sen einteilt und erste Klassifizierungsdaten KD1, welche die Bilddaten BAO zu den detektierten Objekten 0 und die diesen zugeordneten Klassen umfassen, erzeugt. Die Klassifizierungsdaten KD1 werden an eine Steuerungseinheit 14 übermittelt, welche eine Aktoreinheit 15 ansteuert, die daraufhin einen Stimulus ST in Richtung des Objekts 0 (siehe FIG 3) aussendet. Wie bereits erwähnt, kann es sich dabei um ein Lichtsignal handeln. Das Objekt 0, beispielswei¬ se ein Fußgänger, antwortet auf den Stimulus ST mit einer Antwort A. Beispielsweise lenkt der Fußgänger 0 seinen Blick in Richtung des Fahrzeugs 20 und signalisiert damit, dass er das Fahrzeug 20 wahrgenommen hat. Die Antwort A des Objekts 0 wird von einer Detektionseinheit 16 detektiert und an eine Nachklassifizierungseinheit 17 übermittelt. Die Nachklassifi¬ zierungseinheit 17 passt die Klassifizierung des detektierten Objekts 0 an die erfassten Antwortdaten AD an. Beispielsweise wird die Klassifizierung von „Fußgänger" in „aufmerksamer Fußgänger" geändert. Die angepassten Klassifizierungsdaten KD2 werden anschließend an eine Steuereinrichtung 21 (siehe FIG 3) des Fahrzeugs 20 übermittelt, die auf Basis dieser präzisierten Klassifizierung automatisiert Steuerungsbefehle ausgeben kann. In Figure 2, an object detection device 10 according to an embodiment of the invention is shown schematically. The object recognition device 10 may be part of a vehicle 20, for example, as shown in FIG. The object detection apparatus 10 shown in FIG 2 includes a sensor unit 11 which is adapted to detect a Conversely ¬ exercise area of the vehicle 20 pictorially. The sensor data acquired by the sensor unit 11, image data BD in this exemplary embodiment, are transmitted to an image evaluation unit 12. The image evaluation unit 12 detek- advantage in the image data BD objects 0 which are located in the region of the vehicle environment Conversely ¬ 20th Image sections BAO with detected objects 0 are transmitted to a Vorklassifizierungseinheit 13 that divides based on these selective oriented image sections BAO the detected objects in Klas ¬ sen and first classification data KD1 which the image data BAO to the detected objects 0 and which comprise these classes assigned , generated. The classification data KD1 are transmitted to a control unit 14, which activates an actuator unit 15, which then emits a stimulus ST in the direction of the object 0 (see FIG. 3). As mentioned earlier, it may be to act as a light signal. The object 0, beispielswei ¬ se a pedestrian, the responses to the stimulus ST with a response A. For example, the pedestrian directs his gaze 0 in the direction of the vehicle 20 and to indicate that he has noticed the vehicle 20th The response A of the object 0 is detected by a detection unit 16 and transmitted to a post-classification unit 17. The Nachklassifi ¬ zierungseinheit 17 adjusts the classification of the detected object to the detected 0 response data AD. For example, the classification changes from "pedestrian" to "attentive pedestrian". The adapted classification data KD2 are then transmitted to a control device 21 (see FIG. 3) of the vehicle 20, which can automatically issue control commands on the basis of this more precise classification.
In FIG 3 ist ein Szenario 30 mit einem Fahrzeug 20 gemäß ei¬ nem Ausführungsbeispiel der Erfindung schematisch dargestellt. Das Fahrzeug 20 umfasst eine Obj ekterkennungsvorrich- tung 10 gemäß einem Ausführungsbeispiel der Erfindung, wie sie bereits in FIG 2 veranschaulicht wurde. Das Fahrzeug 20 fährt auf einem Weg W, an dessen Peripherie sich ein Objekt 0, in diesem Fall ein Fußgänger befindet. Mit einer Kamera 11 detektiert das Fahrzeug 20 den Fußgänger 0 und sendet mit Hilfe einer Aktoreinheit 15, in diesem Fall einer Signaleinheit, ein Lichtsignal ST in Richtung des Fußgängers 0. Der Fußgänger 0 schaut daraufhin aufmerksam in Richtung des Fahrzeugs 20 und signalisiert dadurch, dass er das Fahrzeug 20 bemerkt hat. Diese Antwort A wird mit Hilfe einer Detektions- einheit 16 des Fahrzeugs 20 erfasst und anschließend in derIn FIG 3, a scenario 30 with a vehicle 20 according to egg ¬ nem embodiment of the invention is shown schematically. The vehicle 20 includes an obj ekterkennungsvorrich- device 10 according to an embodiment of the invention, as has already been illustrated in FIG 2. The vehicle 20 travels on a path W at the periphery of which an object 0, in this case a pedestrian, is located. With a camera 11, the vehicle 20 detects the pedestrian 0 and sends by means of an actuator 15, in this case a signal unit, a light signal ST in the direction of the pedestrian 0. The pedestrian 0 then looks attentively in the direction of the vehicle 20, thereby signaling that he noticed the vehicle 20. This response A is detected with the aid of a detection unit 16 of the vehicle 20 and then in the
Objekterkennungsvorrichtung auf die im Zusammenhang mit FIG 1 und FIG 2 beschriebene Art und Weise ausgewertet. Die dabei erzeugten angepassten Klassifizierungsdaten KD2 werden anschließend an eine Steuerungseinrichtung 21 des Fahrzeugs 20 gesendet, welche auf Basis der angepassten Klassifizierung einen Steuerungsvorgang ausführt. Beispielsweise wird der Be¬ fehl gegeben, dass das Fahrzeug 20 mit unverminderter Geschwindigkeit weiterfährt, da der Fußgänger 0 das Fahrzeug 20 rechtzeitig erkannt hat. Für den Fall, dass der Fußgänger 0 als unaufmerksam klassifiziert wurde, leitet die Steuerungs¬ einrichtung 21 ein Bremsmanöver ein, um eine Gefährdung des Fußgängers 0 zu vermeiden. Object detection device evaluated in the manner described in connection with FIG 1 and FIG 2 way. The adapted classification data KD2 generated in this case are subsequently sent to a control device 21 of the vehicle 20, which carries out a control process on the basis of the adapted classification. For example, the Be ¬ fails given that the vehicle 20 continues at undiminished speed, since the pedestrian 0, the vehicle 20th recognized in time. In the event that the pedestrian 0 has been classified as inattentive, the control ¬ device 21 initiates a braking maneuver to avoid endangering the pedestrian 0.
Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei den vorbeschriebenen Verfahren und Vorrichtungen lediglich um bevorzugte Ausführungsbeispiele der Erfindung han¬ delt und dass die Erfindung vom Fachmann variiert werden kann, ohne den Bereich der Erfindung zu verlassen, soweit er durch die Ansprüche vorgegeben ist. Es wird der Vollständig¬ keit halber auch darauf hingewiesen, dass die Verwendung der unbestimmten Artikel „ein" bzw. „eine" nicht ausschließt, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Ebenso schließt der Begriff „Einheit" nicht aus, dass diese aus mehreren Komponenten besteht, die gegebenenfalls auch räumlich verteilt sein können. It is finally pointed out once again that this han ¬ punched in the above-described methods and devices by only preferred embodiments of the invention and that the invention can be varied by the skilled person without departing from the scope of the invention in so far as determined by the claims is. It is the Fully ¬ ness sake also noted that the use of the indefinite article "a" and does not exclude "a" that the features in question can also be present more than once. Similarly, the term "unit" does not exclude that it consists of several components, which may also be spatially distributed.

Claims

Patentansprüche claims
1. Verfahren zur interaktiven Objekterkennung durch ein Fahrzeug (20), aufweisend die Schritte: A method of interactive object recognition by a vehicle (20), comprising the steps of:
- sensorielles Erfassen eines Umgebungsbereichs eines Fahr¬ zeugs (20) mit Hilfe einer Sensoreinheit (11) des Fahr¬ zeugs (20) , - sensorial detecting a surrounding region of a driving ¬ tool (20) by means of a sensor unit (11) of the driving ¬ zeugs (20)
Ermitteln eines Objekts (0) auf Basis von Sensorsignalen (BD) der Sensoreinheit (11), wobei das Objekt (0) klassi- fiziert wird,  Determining an object (0) on the basis of sensor signals (BD) of the sensor unit (11), whereby the object (0) is classified,
gezieltes mechanisches Einwirken des Fahrzeugs (20) auf das Objekt (0) aus der Distanz zu dem Objekt,  targeted mechanical action of the vehicle (20) on the object (0) from the distance to the object,
Detektieren einer Antwort (A) des Objekts (0) durch das Fahrzeug (20) ,  Detecting a response (A) of the object (0) by the vehicle (20),
- Anpassen der Klassifizierung des Objekts (0) auf Basis der detektierten Antwort (A) , wobei mechanische Eigenschaften des Objekts, betreffend die Frage, ob sich das Objekt bei¬ seiteschieben lässt oder nicht, ermittelt werden. - Adapting the classification of the object (0) on the basis of the detected response (A), wherein mechanical properties of the object, concerning the question of whether the object can be pushed sideways ¬ or not, are determined.
2. Verfahren nach Anspruch 1, wobei das gezielte physikali¬ sche Einwirken eine der folgenden Wirkungsarten aufweist: 2. The method of claim 1, wherein the targeted physi cal ¬ action comprises one of the following modes of action:
Aussenden von Lichtstrahlen,  Emitting light rays,
Aussenden von akustischen Signalen,  Emitting acoustic signals,
mechanisches Einwirken auf das Objekt (0) .  mechanical action on the object (0).
3. Verfahren nach Anspruch 2, wobei das Aussenden von Lichtstrahlen einen der folgenden Vorgänge umfasst: 3. The method of claim 2, wherein the emitting of light rays comprises one of the following operations:
Verwenden von Warnlichtern,  Using warning lights,
Verwenden von Frontlichtern.  Using front lights.
4. Verfahren nach Anspruch 2, wobei das Aussenden von akustischen Signalen einen der folgenden Vorgänge umfasst: 4. The method of claim 2, wherein the emitting of acoustic signals comprises one of the following operations:
akustisches Warnsignal aussenden,  send out an acoustic warning signal,
akustische Rückwärtsfahrsignal aussenden.  send out acoustic reverse signal.
5. Verfahren nach Anspruch 2, wobei das mechanische Einwirken auf das Objekt (0) einen der folgenden Vorgänge umfasst: 5. The method of claim 2, wherein the mechanical action on the object (0) comprises one of the following operations:
Steuern eines bordeigenen mechanischen Manipulators, Einwirken mit dem gesamten Fahrzeug (20) auf das Objekt (0) . Controlling an on-board mechanical manipulator, Interacting with the entire vehicle (20) on the object (0).
6. Verfahren nach einem der Ansprüche 1 bis 5, wobei für den Fall, dass die Antwort des Objekts (0) eine der folgenden Ak¬ tionen umfasst: 6. The method according to any one of claims 1 to 5, wherein in the event that the response of the object (0) comprises one of the following Ak ¬ functions:
Änderung der Bewegung des Objekts (0),  Changing the movement of the object (0),
Ändern der Blickrichtung einer dem Objekt (0) zugeordneten Person,  Change the viewing direction of a person assigned to the object (0),
eine dem Objekt (0) zugeordnete Person als unaufmerksam klas¬ sifiziert wird, und für den Fall, dass die dem Objekt (0) zu¬ geordnete Person aufblickt und/oder um sich blickt, die dem Objekt (0) zugeordnete Person als aufmerksam klassifiziert wird . an object (0) associated with the person as inattentive is sified classified ¬, and for the case that the object (0) looks up to ¬ parent person and / or by looking up which classifies the object (0) associated with the person as attentive becomes .
7. Verfahren nach einem der Ansprüche 1 bis 6, wobei für den Fall, dass es sich bei dem Objekt (0) um ein Fahrzeug han¬ delt, 7. The method according to any one of claims 1 to 6, wherein in the event that it is a vehicle delt with the object (0) han ¬,
für den Fall, dass das Objekt (0) stehen bleibt, das 0b- jekt (0) als parkend klassifiziert wird,  in the event that the object (0) stops, the object (0) is classified as parked,
und für den Fall, dass das Objekt (0) startet und/oder ein dem Objekt (0) zugeordneter Fahrer in Richtung des Fahrzeugs (20) und/oder in einen Rückspiegel blickt, das Ob¬ jekt (0) als sich bewegend klassifiziert wird. and associated driver looks for the case that the object (0) to start and / or the object (0) in the direction of the vehicle (20) and / or in a rear view mirror, the Whether ¬ ject (0) as will be classified moving ,
8. Verfahren nach einem der Ansprüche 5 bis 7, wobei mit dem Fahrzeug (20) auf das Objekt (0) aufgefahren wird, um zu er¬ mitteln, ob das Objekt (0) zur Seite geschoben werden kann oder sicher überfahren werden kann, um einer vorbestimmten Fahrtroute weiter zu folgen. 8. The method according to any one of claims 5 to 7, wherein the vehicle (20) is driven onto the object (0) in order to ¬ hey, whether the object (0) can be pushed to the side or can safely be driven over, to continue following a predetermined route.
9. Objekterkennungsvorrichtung (10), umfassend: An object recognition device (10) comprising:
eine Sensoreinheit (11) zum bildlichen Erfassen eines Um¬ gebungsbereichs eines Fahrzeugs (20), a sensor unit (11) for detecting a visual order ¬ gebungsbereichs of a vehicle (20),
- eine Vorklassifizierungseinheit (13) zum automatisierten Klassifizieren eines Objekts (0) auf Basis von Sensorsig¬ nalen (BD) der Sensoreinheit (11), eine Aktoreinheit (15) zum gezielten mechanischen Einwirken des Fahrzeugs (20) aus der Distanz zu dem Objekt auf das Obj ekt (0) , - a Vorklassifizierungseinheit (13) for automatically classifying an object (0) on the basis of Sensorsig ¬ dimensional (BD) of the sensor unit (11), an actuator unit (15) for targeted mechanical action of the vehicle (20) from the distance to the object on the obj ect (0),
eine Detektionseinheit (16) zum Detektieren einer Antwort des Objekts (0) durch das Fahrzeug (20),  a detection unit (16) for detecting a response of the object (0) by the vehicle (20),
eine Nachklassifizierungseinheit (17) zum Anpassen der Klassifizierung des Objekts (0) auf Basis der detektierten Antwort, wobei mechanische Eigenschaften des Objekts, be¬ treffend die Frage, ob sich das Objekt beiseiteschieben lässt oder nicht, ermittelt werden. a Nachklassifizierungseinheit (17) to adjust the classification of the object (0) based on the detected response, wherein mechanical properties of the object, be ¬ aptly be determined whether the object can be set aside or not.
10. Fahrzeug (20), aufweisend eine Objekterkennungsvorrich¬ tung (20) nach einem der vorstehenden Ansprüche. 10. Vehicle (20), comprising an object recognition device (20) according to one of the preceding claims.
11. Computerprogrammprodukt mit einem Computerprogramm, wel¬ ches direkt in eine Speichereinheit einer Rechnereinheit ei¬ nes Fahrzeugs (20) ladbar ist, mit Programmabschnitten, um alle Schritte eines Verfahrens nach einem der Ansprüche 1 bis 8 auszuführen, wenn das Computerprogramm in der Rechnerein- heit ausgeführt wird. 11. A computer program product with a computer program, wel ¬ ches directly in a storage unit of a computer unit ei ¬ nes vehicle (20) is loadable, with program sections to perform all steps of a method according to any one of claims 1 to 8 when the computer program in the Rechnerein- is executed.
12. Computerlesbares Medium, auf welchem von einer Rechnereinheit ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens nach einem der Ansprüche 1 bis 8 auszuführen, wenn die Programmabschnitte von der Rechnereinheit ausgeführt werden. 12. A computer-readable medium on which are stored by a computer unit executable program sections to perform all the steps of the method according to one of claims 1 to 8, when the program sections are executed by the computer unit.
PCT/EP2018/072210 2017-09-07 2018-08-16 Interactive object detection during autonomous driving WO2019048206A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP18759891.7A EP3652722A1 (en) 2017-09-07 2018-08-16 Interactive object detection during autonomous driving

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017215815 2017-09-07
DE102017215815.8 2017-09-07

Publications (1)

Publication Number Publication Date
WO2019048206A1 true WO2019048206A1 (en) 2019-03-14

Family

ID=63405183

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/072210 WO2019048206A1 (en) 2017-09-07 2018-08-16 Interactive object detection during autonomous driving

Country Status (2)

Country Link
EP (1) EP3652722A1 (en)
WO (1) WO2019048206A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1842732A2 (en) 2006-04-07 2007-10-10 Nissan Motor Manufacturing (UK) Ltd. Vehicle Bumper Protection
DE102013216490A1 (en) 2013-08-20 2015-02-26 Continental Automotive Gmbh A system for providing a signal to an object in the environment of the system
US9064152B2 (en) * 2011-12-01 2015-06-23 Elwha Llc Vehicular threat detection based on image analysis
US20150336502A1 (en) 2014-05-22 2015-11-26 Applied Minds, Llc Communication between autonomous vehicle and external observers
DE102014111023A1 (en) 2014-08-04 2016-02-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and device for controlling an automated vehicle
DE102014226187A1 (en) 2014-12-17 2016-06-23 Bayerische Motoren Werke Aktiengesellschaft Communication by means of a puff of air

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1842732A2 (en) 2006-04-07 2007-10-10 Nissan Motor Manufacturing (UK) Ltd. Vehicle Bumper Protection
US9064152B2 (en) * 2011-12-01 2015-06-23 Elwha Llc Vehicular threat detection based on image analysis
DE102013216490A1 (en) 2013-08-20 2015-02-26 Continental Automotive Gmbh A system for providing a signal to an object in the environment of the system
US20150336502A1 (en) 2014-05-22 2015-11-26 Applied Minds, Llc Communication between autonomous vehicle and external observers
DE102014111023A1 (en) 2014-08-04 2016-02-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and device for controlling an automated vehicle
DE102014226187A1 (en) 2014-12-17 2016-06-23 Bayerische Motoren Werke Aktiengesellschaft Communication by means of a puff of air

Also Published As

Publication number Publication date
EP3652722A1 (en) 2020-05-20

Similar Documents

Publication Publication Date Title
EP1407436B1 (en) Driver assistance system
DE102014008578B4 (en) Method for determining position data for use in the operation of a vehicle system of a motor vehicle and position data acquisition and distribution system
DE102019205223A1 (en) Threading systems and methods for threading vehicles
DE102019205228A1 (en) Threading systems and methods for vehicles on a main track
DE102008049824A1 (en) Method for collision avoidance
EP3552921B1 (en) Autonomous speed planning of a mobile actor limited to a predetermined path
DE112017007082T5 (en) OPERATIONAL SWITCH SUPPORT DEVICE AND OPERATING SWITCH SUPPORT PROCESS
DE102019006685B4 (en) Method for operating a vehicle
DE102020124633A1 (en) CONTEXT-SENSITIVE ADAPTATION OF A TERRAIN VIEW TIME
DE102007052093B4 (en) Detection of spontaneous changes in movement of pedestrians
WO2019007718A1 (en) System and method for the automated manoeuvring of an ego vehicle
WO2020002479A1 (en) Driver assistance system, vehicle, method for operating the driver assistance system, computer program, and computer-readable storage medium
DE102016002232B4 (en) Method for operating a motor vehicle
WO2018033518A1 (en) Method for operating an at least partially autonomous motor vehicle and motor vehicle
DE102016210760A1 (en) Method for interaction between a vehicle and road users
WO2019120709A1 (en) Method and control unit for controlling a function of a vehicle driven at least partially in an automated manner
DE102018214506A1 (en) Method for further developing a driver assistance system and driver assistance system for a vehicle
WO2019048206A1 (en) Interactive object detection during autonomous driving
DE102004047122A1 (en) Sensor and guidance system for road vehicle has four different types of sensor in front of vehicle, building up picture of environment in front of vehicle, including IR and video sensors
DE102021101805A1 (en) DRIVER MONITORING SYSTEM FOR MOTOR VEHICLES
DE102018114628A1 (en) Automatic or semi-automatic parking procedures based on deep learning
DE102021123270B3 (en) Method and control circuit for checking whether a currently active driving mode is operating within its ODD, and system and backend server
DE102022207574B3 (en) Method for controlling an at least partially autonomous motor vehicle in a parked state
DE112021006545T5 (en) SYSTEMS AND METHODS FOR LATENCY TOLERANT SUPPORT OF AUTONOMOUS VEHICLES
DE102004021547A1 (en) Method for driver assistance in hazardous situations entails carrying out automatic evaluation of hazard indicators and on basis of this evaluation making automatic decision for or against dimming of light sources

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18759891

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018759891

Country of ref document: EP

Effective date: 20200211

NENP Non-entry into the national phase

Ref country code: DE