DE102018204590A1 - METHOD FOR FOLLOWING A MOVABLE OBJECT IN A FIELD OF LESS EXPELLABILITY - Google Patents

METHOD FOR FOLLOWING A MOVABLE OBJECT IN A FIELD OF LESS EXPELLABILITY Download PDF

Info

Publication number
DE102018204590A1
DE102018204590A1 DE102018204590.9A DE102018204590A DE102018204590A1 DE 102018204590 A1 DE102018204590 A1 DE 102018204590A1 DE 102018204590 A DE102018204590 A DE 102018204590A DE 102018204590 A1 DE102018204590 A1 DE 102018204590A1
Authority
DE
Germany
Prior art keywords
dzo
area
marked
zld
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018204590.9A
Other languages
German (de)
Inventor
Robert Sasu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Priority to DE102018204590.9A priority Critical patent/DE102018204590A1/en
Publication of DE102018204590A1 publication Critical patent/DE102018204590A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9315Monitoring blind spots
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles

Abstract

Ein Verfahren und eine Vorrichtung zum Nachverfolgen eines beweglichen Objekts in einem Bereich mit geringer Erkennbarkeit (ZLD) eines Erkennungssystems (1) eines Fahrzeugs (VEH), wobei das Verfahren folgende Schritte umfasst: Markieren (S1) jedes beweglichen Objekts (MO), das aufgrund seiner Historie von Sensorsignalen, die durch Sensoren des Erkennungssystems (1) des Fahrzeugs (VEH) erkannt werden, eine hohe Wahrscheinlichkeit (P) seiner Existenz aufweist, als ein Totbereichsobjekt DZO (DZO), wenn das jeweilige bewegliche Objekt (MO) auf einen Bereich mit geringer Erkennbarkeit (ZLD) zusteuert und/oder wenn für das jeweilige bewegliche Objekt (MO) durch keinen Sensor (2) des Erkennungssystems (1) des Fahrzeugs (VEH) länger Sensorsignale erkannt werden; und Nachverfolgen (S2) des markierten Totbereichsobjekts DZO (DZO), wenigstens bis eine vorhergesagte Zeit verstrichen ist, zu der erwartet wird, dass das markierte Totbereichsobjekt DZO (DZO) erneut mit einer hohen Wahrscheinlichkeit (P) seiner Existenz erkannt wird, nachdem es sich durch den Bereich mit geringer Erkennbarkeit (ZLD) hindurch bewegt hat.A method and apparatus for tracking a moving object in a low visibility area (ZLD) of a vehicle recognition system (VEH), the method comprising the steps of: marking (S1) each moving object (MO) based on its history of sensor signals detected by sensors of the vehicle recognition system (VEH) has a high probability (P) of its existence as a dead zone object DZO (DZO) when the respective moving object (MO) is in an area with little detectability (ZLD) is heading and / or if no sensor (2) of the detection system (1) of the vehicle (VEH) longer sensor signals are detected for the respective moving object (MO); and tracking (S2) the marked deadband object DZO (DZO), at least until a predicted time has elapsed, when the marked dead area object DZO (DZO) is expected to be recognized again with a high probability (P) of its existence, after it has reached through the area of low visibility (ZLD).

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Nachverfolgen eines beweglichen Objekts in einem Bereich mit geringer Erkennbarkeit eines Erkennungssystems eines Fahrzeugs.The invention relates to a method and a device for tracking a mobile object in an area with low recognition of a recognition system of a vehicle.

Fahrzeuge, insbesondere Last- oder Personenkraftwagen, werden zunehmend mit Erkennungssystemen ausgestattet, die dazu verwendet werden, Objekte innerhalb des Fahrzeugumfelds zu erkennen. Diese Erkennungssysteme können unterschiedliche Arten von Sensoren umfassen, die Sensorsignale erzeugen, die verarbeitet werden, um Objekte in der Nähe des jeweiligen Fahrzeugs zu erkennen. Die Objekte, die durch ein derartiges Erkennungssystem erkannt werden können, umfassen unbewegliche oder feststehende Objekte und bewegliche Objekte. Zu feststehenden Objekten zählen beispielsweise Gebäude oder Bäume, wohingegen zu beweglichen Objekten andere Verkehrsteilnehmer, insbesondere Fahrzeuge oder Fußgänger, zählen können. Die Erkennung von Objekten in der Nähe des Fahrzeugs ist eine Notwendigkeit zum Bereitstellen von Assistenzfunktionen für den Fahrer des Fahrzeugs. Das Erkennungssystem des Fahrzeugs umfasst mehrere Sensoren, die um das Fahrgestell des Fahrzeugs herum angeordnet sind, wobei jeder Sensor Objekte innerhalb seines Sichtfeldes erkennen kann. Bei den meisten Erkennungssystemen können die Sichtfelder der unterschiedlichen Sensoren einander überlappen. Außerhalb der überlappenden Sichtfelder gibt es jedoch Bereiche mit geringer Erkennbarkeit, wo Objekte kaum erkennbar sind. Beim Anordnen mehrerer Sensoranordnungen eines Erkennungssystems um das Fahrzeug herum gibt es Stellen oder Positionen, wo das Erkennungssystem eine unzulängliche Leistung aufweist, oder sogar Bereiche, wo überhaupt keine Erkennung erreicht wird. Ferner ist es, wenn einer der Sensoren ein Objekt verliert, d. h. beispielsweise aufgrund störender Reflexionen kein Erkennungssignal des in seinem primären Erkennungsbereich befindlichen Objekts bereitstellen kann, für die übrigen Sensoren schwierig zu entscheiden, ob ein sich bewegendes physisches Objekt innerhalb seines Sichtfeldes vorhanden ist. Dementsprechend kann in einem herkömmlichen Erkennungssystem Ungewissheit dahingehend vorliegen, ob sich ein bewegliches physisches Objekt innerhalb eines Bereichs mit geringer Erkennbarkeit befindet, und Entscheidungen, die vom Vorhandensein eines Objekts abhängen, können aufgrund dieser Ungewissheit verzögert werden. Beispielsweise kann beim Treffen einer Fahrunterstützungsentscheidung zum Durchführen eines autonomen Fahrmanövers eine Verzögerung bei der Erkennung eines beweglichen Objekts innerhalb eines Bereichs mit geringer Erkennbarkeit oder Sichtbarkeit einen negativen Einfluss auf die Leistung des Fahrerassistenzsystems haben. Beispielsweise kann, wenn ein sich bewegendes Objekt in einem Bereich mit geringer Erkennbarkeit anhält, ein herkömmliches Erkennungssystem das jeweilige Objekt verlieren und ein Nachverfolgen des beweglichen Objekts stoppen. Wenn das Objekt in einem Sichtfeld eines Sensors des Erkennungssystems wieder auftaucht, muss ein neues/r zugeordnetes Datenobjekt oder Datensatz erzeugt werden und Daten, die dem jeweiligen Objekt zugeordnet sind, müssen ohne Kenntnis vorheriger verloren gegangener Daten, insbesondere Kinematikdaten, erzeugt werden, was die Leistung und Genauigkeit des Erkennungssystems reduziert.Vehicles, particularly trucks or passenger cars, are increasingly being equipped with recognition systems that are used to detect objects within the vehicle environment. These detection systems may include different types of sensors that generate sensor signals that are processed to detect objects in the vicinity of the respective vehicle. The objects that can be detected by such a detection system include immovable or fixed objects and moving objects. Fixed objects include, for example, buildings or trees, whereas movable objects may include other road users, in particular vehicles or pedestrians. The detection of objects near the vehicle is a necessity for providing assistance functions to the driver of the vehicle. The detection system of the vehicle includes a plurality of sensors disposed about the chassis of the vehicle, wherein each sensor can detect objects within its field of view. In most detection systems, the fields of view of the different sensors may overlap one another. Outside the overlapping fields of view, however, there are areas of low visibility where objects are barely discernible. When arranging a plurality of sensor arrays of a recognition system around the vehicle, there are locations or positions where the recognition system has inadequate performance, or even areas where no recognition is achieved at all. Further, when one of the sensors loses an object, i. H. for example, due to spurious reflections, can not provide a detection signal of the object located in its primary detection area, making it difficult for the remaining sensors to determine if a moving physical object is within its field of view. Accordingly, in a conventional recognition system, there may be uncertainty as to whether a movable physical object is within a region of low visibility, and decisions depending on the presence of an object may be delayed due to this uncertainty. For example, when making a driving support decision to perform an autonomous driving maneuver, a delay in recognizing a moving object within an area of low visibility or visibility may have a negative impact on the performance of the driver assistance system. For example, when a moving object stops in an area of low visibility, a conventional recognition system may lose the respective object and stop tracking the moving object. If the object reappears in a field of view of a sensor of the detection system, a new associated data object or data set must be generated and data associated with the respective object must be generated without knowledge of previous lost data, in particular kinematics data, which is the Performance and accuracy of the detection system reduced.

Dementsprechend ist es eine Aufgabe der vorliegenden Erfindung, ein Verfahren und ein System zum Nachverfolgen eines beweglichen Objekts in einem Bereich mit geringer Erkennbarkeit bereitzustellen, um die Genauigkeit und Leistung eines Erkennungssystems eines Fahrzeugs zu erhöhen.Accordingly, it is an object of the present invention to provide a method and system for tracking a moving object in a low visibility area to increase the accuracy and performance of a vehicle recognition system.

Diese Aufgabe wird gemäß einem ersten Aspekt der vorliegenden Erfindung durch ein Verfahren zum Nachverfolgen eines beweglichen Objekts gelöst, das die Merkmale von Anspruch 1 umfasst.This object is achieved according to a first aspect of the present invention by a method for tracking a moving object comprising the features of claim 1.

Die Erfindung stellt gemäß dem ersten Aspekt ein Verfahren zum Nachverfolgen eines beweglichen Objekts in einem Bereich mit geringer Erkennbarkeit eines Erkennungssystems eines Fahrzeugs bereit,
wobei das Verfahren folgende Schritte umfasst:

  • Markieren jedes beweglichen Objekts, das aufgrund seiner Historie von Sensorsignalen, die durch Sensoren des Erkennungssystems des Fahrzeugs erkannt werden, eine hohe berechnete Existenzwahrscheinlichkeit aufweist, als ein Totbereichsobjekt, wenn das jeweilige bewegliche Objekt auf einen Bereich mit geringer Erkennbarkeit zusteuert und/oder wenn für das jeweilige bewegliche Objekt durch keinen Sensor des Erkennungssystems des Fahrzeugs länger Sensorsignale erkannt werden, und
  • Nachverfolgen des markierten Totbereichsobjekts, wenigstens bis eine vorhergesagte Zeit verstrichen ist, zu der erwartet wird, dass das markierte Totbereichsobjekt erneut mit einer hohen Existenzwahrscheinlichkeit erkannt wird, nachdem es sich durch den Bereich mit geringer Erkennbarkeit hindurch bewegt hat.
The invention provides, according to the first aspect, a method for tracking a moving object in an area of low recognition of a recognition system of a vehicle,
the method comprising the steps of:
  • Marking any moving object that has a high calculated probability of existence due to its history of sensor signals detected by sensors of the vehicle's detection system, as a dead area object when the respective moving object is heading for an area of low visibility and / or for the any moving object detected by any sensor of the vehicle's detection system longer sensor signals, and
  • Tracking the marked deadband object, at least until a predicted time has elapsed, when the marked dead area object is expected to be recognized again with a high likelihood of existence after having moved through the area of low detectability.

In einer möglichen Ausführungsform des Verfahrens gemäß dem ersten Aspekt der vorliegenden Erfindung werden Kinematikkennwerte eines beweglichen Objekts für seine letzte mit hoher Wahrscheinlichkeit erfolgte Erkennung gespeichert, wenn es als ein Totbereichsobjekt markiert wird.In one possible embodiment of the method according to the first aspect of the present invention, kinematics characteristics of a moving object are stored for its last high-probability detection when it is marked as a dead-area object.

In einer weiteren möglichen Ausführungsform des Verfahrens gemäß dem ersten Aspekt der vorliegenden Erfindung wird die vorhergesagte Zeit eines markierten Totbereichsobjekts auf der Grundlage der gespeicherten Kinematikkennwerte des markierten Totbereichsobjekts berechnet.In a further possible embodiment of the method according to the first aspect of the The present invention computes the predicted time of a marked deadband object based on the stored kinematic characteristics of the marked deadband object.

In noch einer weiteren möglichen Ausführungsform des Verfahrens gemäß dem ersten Aspekt der vorliegenden Erfindung umfassen die gespeicherten Kinematikkennwerte eines markierten Totbereichsobjekts dessen letzte erkannte Position, Richtung, Geschwindigkeit und/oder Beschleunigung.In yet another possible embodiment of the method according to the first aspect of the present invention, the stored kinematic characteristics of a marked dead band object include its last detected position, direction, speed and / or acceleration.

In einer weiteren möglichen Ausführungsform des Verfahrens gemäß dem ersten Aspekt der vorliegenden Erfindung wird für jedes bewegliche Objekt im Fahrzeugumfeld ein Datensatz geführt, der umfasst:

  • eine Objektkennung,
  • eine berechnete Existenzwahrscheinlichkeit,
  • Kinematikkennwerte des beweglichen Objekts und
  • ein Totbereichsmarkierungszeichen, das markiert, ob das bewegliche Objekt ein Totbereichsobjekt ist.
In a further possible embodiment of the method according to the first aspect of the present invention, a record is kept for each mobile object in the vehicle environment, comprising:
  • an object identifier,
  • a calculated probability of existence,
  • Kinematic characteristics of the moving object and
  • a dead band mark that indicates whether the moving object is a dead band object.

In einer möglichen Ausführungsform des Verfahrens gemäß dem ersten Aspekt der vorliegenden Erfindung werden, wenn ein markiertes Totbereichsobjekt zu der vorhergesagten Zeit durch das Erkennungssystem des Fahrzeugs erneut mit einer hohen Existenzwahrscheinlichkeit erkannt wird, die Kinematikkennwerte des Objekts aktualisiert und das Objekt wird nicht länger als ein Totbereichsobjekt markiert.In a possible embodiment of the method according to the first aspect of the present invention, when a tagged dead band object at the predicted time is recognized again by the vehicle recognition system with a high probability of existence, the kinematics characteristics of the object are updated and the object becomes no longer than a dead band object marked.

In noch einer weiteren möglichen Ausführungsform des Verfahrens gemäß dem ersten Aspekt der vorliegenden Erfindung wird, wenn ein markiertes Totbereichsobjekt zu der vorhergesagten Zeit durch das Erkennungssystem des Fahrzeugs nicht erneut mit einer hohen Existenzwahrscheinlichkeit erkannt wird, eine Warnung ausgegeben, dass ein bewegliches Objekt innerhalb des jeweiligen Bereichs mit geringer Erkennbarkeit angehalten hat und/oder Fahrmanöver, die möglicherweise zu einer Kollision mit dem angehaltenen beweglichen Totbereichsobjekt führen, zu vermeiden sind.In yet another possible embodiment of the method according to the first aspect of the present invention, when a marked dead band object is not recognized again at the predicted time by the recognition system of the vehicle with a high likelihood of existence, a warning is issued that a moving object is within the respective one Has stopped area with low visibility and / or driving maneuvers that may possibly lead to a collision with the stopped movable dead zone object to avoid.

In einer weiteren möglichen Ausführungsform des Verfahrens gemäß dem ersten Aspekt der vorliegenden Erfindung wird, wenn ein durch das Fahrzeug durchgeführtes Fahrmanöver eine mögliche Kollision mit dem markierten Totbereichsobjekt unterbindet und/oder als Folge aufweist, dass das markierte Totbereichsobjekt den Bereich mit geringer Erkennbarkeit verlässt, das Objekt nicht länger als ein Totbereichsobjekt markiert.In a further possible embodiment of the method according to the first aspect of the present invention, when a driving maneuver performed by the vehicle prevents a possible collision with the marked dead area object and / or results in the marked dead area object leaving the area with little detectability Object no longer marked as dead zone object.

In einer weiteren möglichen Ausführungsform des Verfahrens gemäß dem ersten Aspekt der vorliegenden Erfindung werden, wenn ein bewegliches Objekt für einen bestimmten Bereich mit geringer Erkennbarkeit als ein Totbereichsobjekt markiert wurde, Sensorsignalcluster in dem jeweiligen Bereich mit geringer Erkennbarkeit dem markierten Totbereichsobjekt zugeordnet.In another possible embodiment of the method according to the first aspect of the present invention, when a moving object has been marked as a dead area object for a particular area of low visibility, sensor signal clusters in the respective area of low visibility are assigned to the marked dead area object.

In noch einer weiteren möglichen Ausführungsform des Verfahrens gemäß dem ersten Aspekt der vorliegenden Erfindung umfasst jeder Sensor des Erkennungssystems ein Sichtfeld, in dem bewegliche Objekte mit einer hohen Erkennbarkeit erkannt werden.In yet another possible embodiment of the method according to the first aspect of the present invention, each sensor of the detection system comprises a field of view in which movable objects with a high detectability are detected.

In noch einer weiteren möglichen Ausführungsform des Verfahrens gemäß dem ersten Aspekt der vorliegenden Erfindung umfasst das Erkennungssystem mehrere um das Fahrgestell des Fahrzeugs herum positionierte Sensoren, die überlappende Sichtfelder mit einer hohen Erkennbarkeit und Bereiche mit geringer Erkennbarkeit außerhalb der überlappenden Sichtfelder bereitstellen.In yet another possible embodiment of the method according to the first aspect of the present invention, the detection system comprises a plurality of sensors positioned around the chassis of the vehicle providing overlapping fields of view with high visibility and areas of low visibility outside of the overlapping fields of view.

In noch einer weiteren möglichen Ausführungsform des Verfahrens gemäß dem ersten Aspekt der vorliegenden Erfindung umfassen die Sensoren des Erkennungssystems Radarsensoren, die Radarsignale aussenden, die durch Objekte innerhalb ihrer Sichtfelder reflektiert werden.In yet another possible embodiment of the method according to the first aspect of the present invention, the sensors of the detection system include radar sensors that emit radar signals that are reflected by objects within their fields of view.

In einer weiteren möglichen Ausführungsform des Verfahrens gemäß dem ersten Aspekt der vorliegenden Erfindung wird die Vorhersagezeit, zu der erwartet wird, dass ein markiertes Totbereichsobjekt erneut mit einer hohen Existenzwahrscheinlichkeit erkannt wird, nachdem es sich durch einen Bereich mit geringer Erkennbarkeit hindurch bewegt hat, auf der Grundlage eines Abstands zwischen zwei benachbarten Sensoren mit überlappenden Sichtfeldern, die den Bereich mit geringer Erkennbarkeit definieren, und auf der Grundlage der gespeicherten Kinematikkennwerte des markierten Totbereichsobjekts berechnet.In a further possible embodiment of the method according to the first aspect of the present invention, the prediction time to which a marked dead area object is expected to be recognized again with a high probability of existence after it has moved through a region of low recognizability is determined on the Based on a distance between two adjacent sensors with overlapping fields of view defining the area of low visibility, and calculated based on the stored kinematic characteristics of the marked dead area object.

In noch einer weiteren möglichen Ausführungsform des Verfahrens gemäß dem ersten Aspekt der vorliegenden Erfindung informiert ein Sensor, der erkennt, dass ein bewegliches Objekt sein Sichtfeld verlässt und auf einen Bereich mit geringer Erkennbarkeit zusteuert, benachbarte Sensoren, dass erwartet wird, dass zu Zeiten, die anhand der gespeicherten Kinematikkennwerte des Totbereichsobjekts und der Abstände zwischen den jeweiligen Sensoren vorhergesagt werden, ein Totbereichsobjekt in ihre jeweiligen Sichtfelder kommt.In yet another possible embodiment of the method according to the first aspect of the present invention, a sensor recognizing that a moving object leaves its field of view and is heading for an area of low visibility informs adjacent sensors that at times that is predicted on the basis of the stored kinematic parameters of the dead zone object and the distances between the respective sensors, a dead zone object comes into their respective fields of view.

Die Erfindung stellt gemäß einem weiteren Aspekt ferner ein Objekterkennungssystem eines Fahrzeugs bereit, das die Merkmale von Anspruch 15 umfasst.The invention further provides an object recognition system according to another aspect Vehicle having the features of claim 15.

Die Erfindung stellt gemäß dem zweiten Aspekt ein Objekterkennungssystem eines Fahrzeugs bereit, wobei das System umfasst:

  • Sensoren, die um das Fahrgestell des Fahrzeugs herum positioniert und dazu ausgelegt sind, Sensorsignale bereitzustellen, um Objekte im Fahrzeugumfeld innerhalb ihrer überlappenden Sichtfelder, die Bereiche mit geringer Erkennbarkeit außerhalb der überlappenden Sichtfelder definieren, zu erkennen, und
  • wenigstens eine Verarbeitungseinheit, die dazu ausgelegt ist, die Sensorsignale zu verarbeiten, um bewegliche Objekte zu bestimmen, die eine hohe Existenzwahrscheinlichkeit aufweisen, und dazu ausgelegt ist, jedes bewegliche Objekt als ein Totbereichsobjekt zu markieren, wenn das jeweilige bewegliche Objekt auf einen Bereich mit geringer Erkennbarkeit zusteuert und/oder wenn für das jeweilige bewegliche Objekt durch keinen Sensor des Erkennungssystems länger Sensorsignale erkannt werden, wobei das markierte Totbereichsobjekt wenigstens nachverfolgt wird, bis eine vorhergesagte Zeit verstrichen ist, zu der erwartet wird, dass das markierte Totbereichsobjekt erneut mit einer hohen Existenzwahrscheinlichkeit erkannt wird, nachdem es sich durch den jeweiligen Bereich mit geringer Erkennbarkeit hindurch bewegt hat.
The invention provides, according to the second aspect, an object recognition system of a vehicle, the system comprising:
  • Sensors positioned around the chassis of the vehicle and configured to provide sensor signals to detect objects in the vehicle surroundings within their overlapping fields of view defining areas of low visibility outside the overlapping fields of view;
  • at least one processing unit configured to process the sensor signals to determine moving objects having a high probability of existence, and configured to mark each movable object as a dead area object when the respective moving object is in an area of less Recognizability is heading and / or if sensor signals for the respective moving object are no longer detected by a sensor of the detection system, wherein the marked dead band object is tracked at least until a predicted time has elapsed, is expected to the marked dead band object again with a high probability of existence is detected after it has moved through the respective area of low visibility.

In einer möglichen Ausführungsform des Objekterkennungssystems gemäß dem zweiten Aspekt der vorliegenden Erfindung umfassen die Sensoren des Erkennungssystems intelligente Sensoren.In one possible embodiment of the object recognition system according to the second aspect of the present invention, the sensors of the recognition system comprise intelligent sensors.

In einer möglichen Ausführungsform des Objekterkennungssystems gemäß dem zweiten Aspekt der vorliegenden Erfindung umfasst jeder intelligente Sensor
wenigstens ein Sensorelement, das dazu ausgelegt ist, Sensorsignale zu erzeugen,
einen lokalen Prozessor, der dazu ausgelegt ist, Sensorsignale zu verarbeiten,
einen lokalen Speicher, der dazu ausgelegt ist, Objektdatensätze für durch das Erkennungssystem im Fahrzeugumfeld erkannte Objekte zu speichern, und
eine Kommunikationsschnittstelle, die zur Kommunikation mit anderen Sensoren des Erkennungssystems und/oder mit einem zentralen Prozessor des Erkennungssystems verwendet wird.
In one possible embodiment of the object recognition system according to the second aspect of the present invention, each intelligent sensor comprises
at least one sensor element configured to generate sensor signals,
a local processor designed to process sensor signals,
a local memory adapted to store object records for objects detected by the recognition system in the vehicle environment, and
a communication interface used for communication with other sensors of the recognition system and / or with a central processor of the recognition system.

Nachfolgend werden mögliche Ausführungsformen der unterschiedlichen Aspekte der vorliegenden Erfindung unter Bezugnahme auf die beigeschlossenen Figuren ausführlicher beschrieben.

  • 1 zeigt eine schematische Darstellung zum Veranschaulichen eines möglichen Ausführungsbeispiels des Verfahrens und der Vorrichtung gemäß der vorliegenden Erfindung;
  • 2 zeigt ein Ablaufdiagramm eines möglichen Ausführungsbeispiels eines Verfahrens zum Nachverfolgen eines beweglichen Objekts gemäß dem ersten Aspekt der vorliegenden Erfindung;
  • 3 zeigt ein Blockdiagramm eines möglichen Ausführungsbeispiels eines Objekterkennungssystems eines Fahrzeugs gemäß dem zweiten Aspekt der vorliegenden Erfindung;
  • 4 zeigt ein weiteres schematisches Blockdiagramm zum Veranschaulichen eines möglichen weiteren Ausführungsbeispiels eines Objekterkennungssystems eines Fahrzeugs gemäß dem zweiten Aspekt der vorliegenden Erfindung;
  • 5 zeigt ein Blockdiagramm eines möglichen Ausführungsbeispiels eines intelligenten Sensors, der in einem Objekterkennungssystem eines Fahrzeugs gemäß dem zweiten Aspekt der vorliegenden Erfindung verwendet werden kann;
  • 6 zeigt eine Datenstruktur eines Objektdatensatzes eines Objekts, der durch das Verfahren und die Vorrichtung gemäß der vorliegenden Erfindung verwendet werden kann;
  • 7 zeigt eine schematische Darstellung zum Veranschaulichen eines möglichen Anwendungsfalls für das Verfahren und die Vorrichtung gemäß der vorliegenden Erfindung;
  • 8 zeigt eine weitere schematische Darstellung zum Veranschaulichen eines weiteren Anwendungsfalls für das Verfahren und die Vorrichtung gemäß der vorliegenden Erfindung;
  • 9, 10, 11 veranschaulichen einen weiteren Anwendungsfall für das Verfahren und die Vorrichtung gemäß der vorliegenden Erfindung.
Hereinafter, possible embodiments of the various aspects of the present invention will be described in more detail with reference to the accompanying drawings.
  • 1 shows a schematic diagram illustrating a possible embodiment of the method and apparatus according to the present invention;
  • 2 shows a flowchart of a possible embodiment of a method for tracking a moving object according to the first aspect of the present invention;
  • 3 Fig. 10 is a block diagram of one possible embodiment of an object recognition system of a vehicle according to the second aspect of the present invention;
  • 4 FIG. 12 is another schematic block diagram for illustrating another possible embodiment of a vehicle object recognition system according to the second aspect of the present invention; FIG.
  • 5 FIG. 10 is a block diagram of one possible embodiment of an intelligent sensor that may be used in an object recognition system of a vehicle according to the second aspect of the present invention; FIG.
  • 6 shows a data structure of an object data set of an object that can be used by the method and apparatus according to the present invention;
  • 7 shows a schematic representation illustrating a possible application for the method and apparatus according to the present invention;
  • 8th shows a further schematic illustration illustrating a further application for the method and apparatus according to the present invention;
  • 9 . 10 . 11 illustrate another use case for the method and apparatus according to the present invention.

1 zeigt schematisch ein mögliches Ausführungsbeispiel eines Erkennungssystems 1, das in einem Fahrzeug VEH realisiert ist und Sensoren 2 umfasst, um Objekte im Fahrzeugumfeld zu erkennen. Die Sensoren 2 können beispielsweise Radarsensoren umfassen, die ein Radarsignal aussenden und Radarsignale, die durch ein Objekt in der Nähe des Fahrzeugs VEH reflektiert werden, empfangen. Das Objekt kann ein unbewegliches feststehendes Objekt, wie etwa ein Baum, oder ein bewegliches Objekt MO sein. Das bewegliche Objekt MO kann jede Art von sich bewegendem Objekt sein, insbesondere ein sich bewegender Verkehrsteilnehmer, darunter ein Fußgänger oder ein anderes Fahrzeug VEH. Jeder Sensor 2 des Erkennungssystems 1 umfasst ein Sichtfeld FoV, das abhängig von der Art und der Technologie des Sensors 2 und seiner Realisierung variieren kann. In einer möglichen Ausführungsform weist jeder Sensor 2 ein Sichtfeld FoV von etwa 180° auf. 1 schematically shows a possible embodiment of a recognition system 1 , which is realized in a vehicle VEH and sensors 2 includes to detect objects in the vehicle environment. The sensors 2 For example, they may include radar sensors that emit a radar signal and receive radar signals that are reflected by an object in the vicinity of the vehicle VEH. The object may be an immovable fixed object, such as a tree, or a moving object NOT A WORD be. The moving object NOT A WORD may be any type of moving object, in particular a moving road user, including a pedestrian or other vehicle VEH , Every sensor 2 of the recognition system 1 includes a field of vision FoV depending on the type and technology of the sensor 2 and its realization may vary. In one possible embodiment, each sensor has 2 a field of view FoV of about 180 °.

In der gezeigten schematischen Darstellung von 1 weist das Fahrzeug VEH an seiner Vorderseite zwei Sensoren 2-1, 2-2 auf, die einen Teil des Erkennungssystems 1 bilden. Die Sensoren 2-1, 2-2 können beispielsweise Radarsensoren sein. Beide Sensoren 2-1, 2-2 weisen ein entsprechendes Sichtfeld FoV1, FoV2 auf, wie in 1 gezeigt. In dem dargestellten Beispiel von 1 befindet sich ein sich bewegendes Objekt MO, wie etwa ein Fußgänger, anfangs vor dem ersten Sensor 2-1 innerhalb dessen Sichtfeldes FoV1. Wie in 1 zu sehen ist, überlappen die Sichtfelder FoV1, FoV2 einander, unmittelbar vor dem Fahrgestell des Fahrzeugs existiert jedoch außerhalb der überlappenden Sichtfelder FoV1, FoV2 ein Bereich mit geringer Erkennbarkeit ZLD. In dem dargestellten Beispiel von 1 bewegt sich das sich bewegende Objekt MO, d. h. der Fußgänger, aus dem Sichtfeld FoV1 des ersten Sensors 2-1 in den Bereich mit geringer Erkennbarkeit ZLD. Für jedes Objekt innerhalb des Fahrzeugumfelds kann ein Objektdatensatz ODS bereitgestellt werden, wie etwa auch in 6 dargestellt. Wenn ein sich bewegendes Objekt MO auf einen Bereich mit geringer Erkennbarkeit ZLD zusteuert, wie in 1 dargestellt, und/oder wenn für das jeweilige sich bewegende Objekt MO durch keinen Sensor 2 des Erkennungssystems 1 länger Sensorsignale erkannt werden, kann das bewegliche Objekt MO als ein Totbereichsobjekt DZO markiert werden. Dementsprechend geht das bewegliche Objekt MO für das Erkennungssystem 1 nicht verloren und das System 1 verfolgt das markierte Totbereichsobjekt DZO wenigstens weiter, bis eine erwartete berechnete Zeit verstrichen ist, zu der erwartet wird, dass das markierte Totbereichsobjekt erneut mit einer hohen Existenzwahrscheinlichkeit erkannt wird, nachdem es sich durch den Bereich mit geringer Erkennbarkeit ZLD hindurch bewegt hat. Wie in 1 dargestellt, wird erwartet, dass das sich bewegende Objekt MO, wie etwa ein Fußgänger, das mit einer bestimmten Richtung und Geschwindigkeit in den Bereich mit geringer Erkennbarkeit ZLD eintritt, wieder auftaucht und erneut mit einer hohen Wahrscheinlichkeit P seiner Existenz erkannt wird, wenn es in das Sichtfeld FoV2 des zweiten Sensors 2-2 des Erkennungssystems 1 eintritt.In the illustrated schematic representation of 1 points the vehicle VEH on its front two sensors 2-1 . 2-2 on, which form part of the recognition system 1. The sensors 2-1 . 2-2 may be radar sensors, for example. Both sensors 2-1 . 2-2 have a corresponding field of view FOV1 . FOV2 on, like in 1 shown. In the illustrated example of 1 there is a moving object NOT A WORD such as a pedestrian, initially in front of the first sensor 2-1 within its field of vision FOV1 , As in 1 can be seen overlapping the fields of view FOV1 . FOV2 However, each other, immediately in front of the chassis of the vehicle exists outside the overlapping fields of view FOV1 . FOV2 an area with low visibility ZLD , In the illustrated example of 1 the moving object moves NOT A WORD ie the pedestrian, out of sight FOV1 of the first sensor 2-1 in the area with low visibility ZLD , For each object within the vehicle environment, an object record ODS be provided, as well as in 6 shown. When a moving object NOT A WORD to an area with little visibility ZLD is heading, as in 1 represented, and / or if for the respective moving object NOT A WORD by no sensor 2 of the recognition system 1 longer sensor signals can be detected, the moving object NOT A WORD as a dead zone object DZO be marked. Accordingly, the moving object goes NOT A WORD for the recognition system 1 not lost and the system 1 tracks the marked dead band object DZO at least until an expected calculated time has elapsed, when it is expected that the marked dead area object will be recognized again with a high probability of existence, after passing through the area of low visibility ZLD has moved through. As in 1 represented, is expected to be the moving object NOT A WORD , such as a pedestrian, with a certain direction and speed in the area of low visibility ZLD enters, reappears and is recognized again with a high probability P of its existence, if it is in the field of vision FOV2 of the second sensor 2-2 of the recognition system 1 occurs.

Es gibt unterschiedliche Anwendungsfälle, die durch das Verfahren gemäß der vorliegenden Erfindung gelöst werden. Wenn das Objekt sich in einem Bereich mit geringer Erkennbarkeit ZLD oder geringer Sichtbarkeit befindet oder wenn ein sich bewegendes Objekt MO plötzlich aus dem Erkennungssystem 1 verschwindet, kann das bewegliche Objekt MO als ein so genanntes Totbereichsobjekt DZO markiert werden. Das aktuelle Nachverfolgungsverfahren erhält das bewegliche Objekt MO auch dann lebendig, wenn durch die Sensoren 2 des Erkennungssystems 1 keine oder diffuse Sensorsignale erkannt werden. Das Objekt, d. h. der entsprechende zugeordnete Objektdatensatz ODS, wird in einer möglichen Ausführungsform für eine vorgegebene Zeitdauer aufrechterhalten und behalten. In einer möglichen Ausführungsform wird das markierte Totbereichsobjekt DZO wenigstens nachverfolgt, bis ein vorhergesagter Zeitpunkt erreicht wird, zu dem erwartet wird, dass das markierte Totbereichsobjekt DZO auf der Grundlage der Sensorsignale erneut mit einer hohen Existenzwahrscheinlichkeit erkannt wird, nachdem es sich durch den Bereich mit geringer Erkennbarkeit ZLD hindurch bewegt oder diesen passiert hat. Wenn das nachverfolgte Objekt MO den Bereich mit geringer Erkennbarkeit ZLD erreicht oder wenn das Objekt MO überhaupt nicht erkannt wird, wird es als ein mögliches Totbereichsobjekt DZO markiert. In einer möglichen Ausführungsform wird das bewegliche Objekt nur markiert, wenn es eine gute Historie von Sensorsignalen und eine hohe berechnete Wahrscheinlichkeit P seiner Existenz und keine Spiegelwahrscheinlichkeit umfasst. In einer möglichen Ausführungsform können, wenn für das markierte Totbereichsobjekt DZO keine Sensorsignale mehr bereitgestellt werden, seine Kinematikkennwerte oder Kinematikdaten auf die letzten erfassten Werte eingefroren werden. Kinematikkennwerte eines beweglichen Objekts MO können dessen Position, Richtung, Geschwindigkeit und/oder Beschleunigung umfassen. In einer möglichen Ausführungsform werden die Kinematikkennwerte oder Kinematikdaten eines beweglichen Objekts MO für dessen letzte mit hoher Wahrscheinlichkeit erfolgte Erkennung eingelagert oder gespeichert, wenn es als ein Totbereichsobjekt DZO markiert wird. Die vorhergesagte oder erwartete Zeit eines markierten Totbereichsobjekts DZO, zu der erwartet wird, dass es wieder auftaucht oder erneut mit einer hohen Wahrscheinlichkeit P seiner Existenz erkannt wird, nachdem es sich durch den Bereich mit geringer Erkennbarkeit ZLD hindurch bewegt hat, kann in einer möglichen Ausführungsform auf der Grundlage der gespeicherten Kinematikkennwerte des markierten Totbereichsobjekts DZO berechnet werden. Beispielsweise kann abhängig von der letzten erkannten Position, Richtung, Geschwindigkeit und/oder Beschleunigung des markierten Totbereichsobjekts DZO die Erwartungszeit für das markierte Totbereichsobjekt DZO automatisch berechnet oder vorhergesagt werden, da die Position der unterschiedlichen Sensoren 2-i des Erkennungssystems 1 und ihre entsprechenden Sichtfelder FoV dem System 1 bekannt sind. Der Objektdatensatz ODS für das markierte Totbereichsobjekt DZO wird aufrechterhalten und lebendig erhalten, bis das jeweilige Objekt MO für keine der Fahrfunktionen des Systems 1 länger relevant oder wichtig ist oder andere klar erkannte Objekte mit einer hohen Wahrscheinlichkeit P ihrer Existenz seine Stelle einnehmen.There are different applications that are solved by the method according to the present invention. If the object is in an area with low visibility ZLD or low visibility or if a moving object NOT A WORD suddenly out of the detection system 1 disappears, the moving object can NOT A WORD as a so-called dead zone object DZO be marked. The current tracking method receives the moving object NOT A WORD even when alive through the sensors 2 of the recognition system 1 no or diffuse sensor signals are detected. The object, ie the corresponding associated object record ODS , is maintained and retained in a possible embodiment for a predetermined period of time. In one possible embodiment, the marked dead band object becomes DZO at least tracked until a predicted time is reached when it is expected that the marked dead zone object DZO on the basis of the sensor signals, it is recognized again with a high likelihood of existence, after passing through the area of low visibility ZLD through or through it. If the tracked object NOT A WORD the area with low visibility ZLD achieved or if the object NOT A WORD is not recognized at all, it is considered a possible dead zone object DZO marked. In one possible embodiment, the movable object is only marked if there is a good history of sensor signals and a high calculated probability P its existence and no mirror probability. In one possible embodiment, if for the marked dead band object DZO sensor signals are no longer provided, its kinematic characteristics or kinematics data are frozen to the last detected values. Kinematics characteristics of a moving object NOT A WORD may include its position, direction, speed and / or acceleration. In one possible embodiment, the kinematic characteristics or kinematics data of a moving object NOT A WORD for whose last highly probable recognition has been stored or stored, if it is a dead band object DZO is marked. The predicted or expected time of a marked deadband object DZO which is expected to reappear or again with a high probability P Its existence is recognized after moving through the area of low visibility ZLD may have moved through in one possible embodiment based on the stored kinematic characteristics of the marked deadband object DZO be calculated. For example, depending on the last detected position, direction, speed and / or acceleration of the marked Totbereichsobjekts DZO the expected time for the marked dead zone object DZO automatically calculated or predicted, since the position of the different sensors 2-i of the recognition system 1 and their corresponding fields of view FoV the system 1 are known. The object record ODS for the marked dead band object DZO is maintained and kept alive until the respective object NOT A WORD for none of the driving functions of the system 1 is longer relevant or important or other clearly recognized objects with a high probability P their existence take its place.

In einer möglichen Ausführungsform kann für jedes bewegliche Objekt und/oder jedes unbewegliche Objekt im Fahrzeugumfeld ein zugeordneter Objektdatensatz ODS aufrechterhalten und aktualisiert werden. Eine mögliche beispielhafte Datenstruktur eines Objektdatensatzes ODS ist in 6 dargestellt. In der dargestellten Ausführungsform umfasst der Objektdatensatz ODS des Objekts eine Objektkennung OBJ-ID des jeweiligen Objekts, eine berechnete Wahrscheinlichkeit P seiner Existenz und Kinematikkennwerte KIN des beweglichen Objekts. Die Kinematikkennwerte KIN beinhalten Kinematikdaten, insbesondere Positionsdaten oder -koordinaten, eine Richtung, eine Geschwindigkeit und/oder eine Beschleunigung des jeweiligen beweglichen Objekts MO. Der Objektdatensatz ODS umfasst in einer möglichen Ausführungsform ferner ein Totbereichsmarkierungszeichen DZOF, das anzeigt, ob das jeweilige bewegliche Objekt MO ein Totbereichsobjekt DZO ist oder nicht. Wenn ein markiertes Totbereichsobjekt DZO zu der berechneten vorhergesagten Zeit durch das Erkennungssystem 1 des Fahrzeugs VEH erneut mit einer hohen Wahrscheinlichkeit P seiner Existenz erkannt wird, werden die Kinematikkennwerte KIN des Objekts MO aktualisiert und das Objekt MO wird nicht länger als ein Totbereichsobjekt DZO markiert, d. h. das entsprechende Totbereichsobjektmarkierungszeichen DZOF wird zurückgesetzt.In one possible embodiment, an associated object data record can be provided for each movable object and / or immovable object in the vehicle environment ODS maintained and updated. A possible exemplary data structure of an object data record ODS is in 6 shown. In the illustrated embodiment, the object data set ODS of the object comprises an object identifier OBJ-ID of the respective object, a calculated probability P of its existence and kinematics characteristics KIN of the moving object. The kinematics characteristics KIN include kinematics data, in particular position data or coordinates, a direction, a speed and / or an acceleration of the respective mobile object NOT A WORD , The object record ODS In one possible embodiment, further comprises a dead band marker DZOF that indicates whether the respective moving object NOT A WORD a dead zone object DZO is or not. If a marked dead band object DZO at the calculated predicted time by the recognition system 1 of the vehicle VEH again with a high probability P its existence is recognized, the kinematics characteristics KIN of the object NOT A WORD updated and the object NOT A WORD does not become longer than a dead zone object DZO marked, ie the corresponding dead band object mark DZOF will be reset.

In dem dargestellten Beispiel von 1 taucht das sich bewegende Objekt MO als sich bewegendes Objekt MO' vor dem zweiten Sensor 2-2 wieder auf, was eine Aktualisierung seiner Kinematikdaten KIN innerhalb seines Objektdatensatzes ODS auslöst. Im Gegensatz dazu kann, wenn ein markiertes Totbereichsobjekt DZO zu der vorhergesagten Zeit durch das Erkennungssystem 1 des Fahrzeugs VEH nicht erneut mit einer hohen Wahrscheinlichkeit P seiner Existenz erkannt wird, eine Warnung ausgegeben werden, dass ein bewegliches Objekt MO innerhalb des jeweiligen Bereichs mit geringer Erkennbarkeit ZLD angehalten hat. Ferner ist es möglich, dass Fahrmanöver, die möglicherweise zu einer Kollision mit einem derartigen angehaltenen beweglichen Totbereichsobjekt DZO führen können, vermieden oder blockiert werden. Dementsprechend kann in dem in 1 dargestellten Anwendungsfall, wenn das sich bewegende Objekt ein Fußgänger ist, der sich in einem Bereich mit geringer Erkennbarkeit ZLD vor dem Fahrzeug VEH oder Auto bewegt und dort anhält, eine Warnung ausgegeben werden, dass ein bewegliches Objekt MO oder Fußgänger sich vor dem Auto befindet, und jedwedes Fahrmanöver, welches das Fahrzeug VEH hin zu dem Bereich mit geringer Erkennbarkeit bewegt, wird blockiert. In einer möglichen Ausführungsform kann die Art des sich bewegenden Objekts MO, das in den Bereich mit geringer Erkennbarkeit ZLD eingetreten ist, aus seinen Kinematikdaten abgeleitet werden. Beispielsweise kann, wenn das sich bewegende Objekt sich mit einer relativ geringen Geschwindigkeit, die typisch für einen Fußgänger ist, innerhalb des Sichtfeldes FoV1 des ersten Sensors 2-1 bewegt, bevor es in den Bereich mit geringer Erkennbarkeit ZLD eintritt, bestimmt werden, dass das sich bewegende Objekt MO ein Fußgänger ist. Andere Arten sich bewegender Objekte MO können Tiere oder andere Verkehrsteilnehmer, insbesondere andere Autos oder Fahrzeuge, umfassen. Insbesondere wenn das sich bewegende Objekt MO ein Fußgänger ist, der in einen Bereich mit geringer Erkennbarkeit eintritt, ist das sich bewegende Objekt MO in dem markierten Totbereichsobjekt DZO ein Objekt von hoher Wichtigkeit und jedwede Kollision dieses Objekts MO mit dem Fahrgestell des Fahrzeugs VEH muss unter allen Umständen vermieden werden. In einer möglichen Ausführungsform kann ein Wichtigkeitswert für das sich bewegende Objekt MO zugewiesen werden, und zwar abhängig von seiner Wichtigkeit oder Relevanz bezüglich der Sicherheit von Verkehrsteilnehmern.In the illustrated example of 1 dives the moving object NOT A WORD as a moving object NOT A WORD' in front of the second sensor 2 - 2 again, what an update of its kinematics data KIN within its object data set ODS triggers. In contrast, if a marked dead band object DZO at the predicted time by the recognition system 1 of the vehicle VEH not again with a high probability P Being aware of its existence, a warning is issued that a moving object NOT A WORD within the respective area with low visibility ZLD has stopped. Furthermore, it is possible that driving maneuvers, possibly leading to a collision with such a stopped movable dead band object DZO can lead, avoid or block. Accordingly, in the in 1 illustrated use case, when the moving object is a pedestrian, located in an area with low visibility ZLD in front of the vehicle VEH or car moves and stops there, a warning is issued that a moving object NOT A WORD or pedestrian is in front of the car, and any driving maneuver that the vehicle VEH moved to the area of low visibility is blocked. In one possible embodiment, the nature of the moving object NOT A WORD that is in the area of low visibility ZLD is derived from its kinematics data. For example, if the moving object is within the field of view at a relatively low speed typical of a pedestrian FOV1 of the first sensor 2-1 moves before it enters the area of low visibility ZLD enters, determines that the moving object NOT A WORD a pedestrian is. Other types of moving objects NOT A WORD may include animals or other road users, in particular other cars or vehicles. Especially if the moving object NOT A WORD a pedestrian entering a low visibility area is the moving object NOT A WORD in the marked dead band object DZO an object of high importance and any collision of this object NOT A WORD with the chassis of the vehicle VEH must be avoided at all costs. In one possible embodiment, an importance value for the moving object NOT A WORD depending on its importance or relevance to the safety of road users.

In einer möglichen Ausführungsform wird, wenn durch das Fahrzeug VEH ein Fahrmanöver durchgeführt wird, um eine mögliche Kollision mit dem markierten Totbereichsobjekt DZO, beispielsweise einem Fußgänger, das in einen Bereich mit geringer Erkennbarkeit ZLD eingetreten ist, zu vermeiden oder zu unterbinden, und/oder wenn das markierte Totbereichsobjekt DZO den Bereich mit geringer Erkennbarkeit ZLD infolge eines durchgeführten Fahrmanövers verlässt, das Objekt MO länger als ein Totbereichsobjekt DZO markiert, d. h. sein Totbereichsobjektmarkierungszeichen DZOF wird zurückgesetzt. Beispielsweise kommt, wenn der Fahrer des in 1 dargestellten Fahrzeugs VEH ein Rückwärtsfahrmanöver durchführt, um das Fahrzeug VEH von dem Fußgänger MO, der in den Bereich mit geringer Erkennbarkeit ZLD eingetreten ist, weg zu bewegen, das sich bewegende Objekt oder der Fußgänger MO in die sich überlappenden Sichtfelder FoV der Sensoren 2-i an der Vorderseite des Fahrzeugs VEH und kann mit einer hohen Wahrscheinlichkeit P seiner Existenz erkannt werden. In diesem Fall wird das sich bewegende Objekt MO nicht länger als ein Totbereichsobjekt DZO markiert und erscheint als ein normales bewegliches Objekt MO in dem Erkennungssystem 1.In one possible embodiment, when by the vehicle VEH a driving maneuver is performed to avoid a possible collision with the marked dead zone object DZO For example, a pedestrian in an area with low visibility ZLD occurred to avoid or prevent, and / or if the marked Totbereichsobjekt DZO the area with low visibility ZLD as a result of a completed maneuver leaves the object NOT A WORD longer than a dead zone object DZO marked, ie its dead band object mark DZOF will be reset. For example, when the driver of the in 1 shown vehicle VEH performs a reverse maneuver to the vehicle VEH from the pedestrian NOT A WORD who is in the area of low visibility ZLD occurred to move away, the moving object or the pedestrian NOT A WORD in the overlapping fields of view FoV the sensors 2-i at the front of the vehicle VEH and can with a high probability P be recognized of its existence. In this case, the moving object becomes NOT A WORD no longer than a dead zone object DZO marked and appears as a normal moving object NOT A WORD in the recognition system 1 ,

Wenn das bewegliche Objekt MO für einen bestimmten Bereich mit geringer Erkennbarkeit ZLD als ein Totbereichsobjekt DZO markiert wurde, werden Sensorsignalcluster in dem jeweiligen Bereich mit geringer Erkennbarkeit ZLD dem markierten Totbereichsobjekt DZO zugeordnet und keine anderen neuen Datenobjekte in dem System erzeugt. Die Sensorsignalcluster können innerhalb eines Bereichs mit geringer Erkennbarkeit ZLD einzelne Reflexionspunkte umfassen, die automatisch zu Clustern geordnet werden, und wobei die Werte oder Sensorsignale zusammengeführt und dem markierten Totbereichsobjekt DZO zugeordnet werden können. Das Erkennungssystem 1 kann mehrere Sensoren 2 umfassen, die am Fahrgestell des Fahrzeugs vorgesehen sind und die das Fahrzeug VEH normalerweise umgeben, um Objekte mit einer Rundumsicht von 360° um das Fahrzeug VEH herum zu erkennen. Das Erkennungssystem 1 kann beispielsweise zwei oder mehr Radarsensoren 2 umfassen. Das Erkennungssystem 1 kann in einer möglichen Ausführungsform ferner andere Sensoren 2, darunter Kameras oder LIDAR-Sensoren, umfassen. Jeder Sensor 2 des Erkennungssystems 1 weist ein zugeordnetes Sichtfeld FoV auf, in dem bewegliche Objekte MO mit einem hohen Grad an Erkennbarkeit erkannt werden können. Das Erkennungssystem 1 umfasst mehrere Sensoren 2 der gleichen oder unterschiedlicher Art(en), die um das Fahrgestell des Fahrzeugs VEH herum positioniert sind und überlappende Sichtfelder FoV mit einer hohen Erkennbarkeit oder Sichtbarkeit und komplementäre Bereiche mit geringer Erkennbarkeit außerhalb der überlappenden Sichtfelder FoV bereitstellen, wie auch in 1 dargestellt.When the moving object NOT A WORD for a specific area with low visibility ZLD as a dead zone object DZO has been marked, sensor signal clusters are in the respective area with low visibility ZLD the marked dead band object DZO and no other new data objects are created in the system. The sensor signal clusters can be within a range with little recognizability ZLD include individual reflection points that are automatically clustered, and where the values or sensor signals merge and the marked deadband object DZO can be assigned. The recognition system 1 can have multiple sensors 2 include, which are provided on the chassis of the vehicle and which normally surround the vehicle VEH to objects with a 360 ° panoramic view around the vehicle VEH to recognize around. The recognition system 1 For example, you can have two or more radar sensors 2 include. The recognition system 1 may also be other sensors in one possible embodiment 2 including cameras or LIDAR sensors. Every sensor 2 of the recognition system 1 has an associated field of view FoV on, in which moving objects NOT A WORD can be detected with a high degree of recognizability. The recognition system 1 includes several sensors 2 the same or different type (s) that surround the chassis of the vehicle VEH and provide overlapping fields of view FoV with high visibility or visibility, and complementary areas of low visibility outside the overlapping fields of view FoV, as well as in 1 shown.

In einer möglichen Ausführungsform kann die Vorhersagezeit, zu der erwartet wird, dass ein markiertes Totbereichsobjekt erneut mit einer hohen Wahrscheinlichkeit P seiner Existenz erkannt wird, nachdem es sich durch einen Bereich mit geringer Erkennbarkeit ZLD hindurch bewegt hat, auf der Grundlage eines Abstands zwischen zwei benachbarten Sensoren 2 mit überlappenden Sichtfeldern FoV, die den Bereich mit geringer Erkennbarkeit definieren, und auf der Grundlage der gespeicherten Kinematikkennwerte KIN des markierten Totbereichsobjekts DZO berechnet werden. In dem dargestellten Anwendungsfall von 1 sind der Abstand zwischen den zwei Sensoren 2-1, 2-2 vor dem Fahrgestell des Fahrzeugs und der Winkel ihres jeweiligen Sichtfeldes FoV bekannt, so dass die Geometrie des Bereichs mit geringer Erkennbarkeit ZLD abgeleitet werden kann. Da die Richtung und Geschwindigkeit des sich bewegenden Objekts MO beim Eintreten in einen Bereich mit geringer Erkennbarkeit ZLD gespeichert werden, kann die Zeit, zu der das markierte Totbereichsobjekt DZO in einem Bereich mit hoher Erkennbarkeit, d. h. in dem Sichtfeld FoV2 des anderen Sensors 2-2 wieder auftaucht, berechnet werden. Das sich bewegende Objekt MO kann wenigstens nachverfolgt werden, bis die berechnete vorhergesagte Zeit erreicht wurde.In one possible embodiment, the prediction time that is expected to return a marked deadband object with a high probability P Its existence is recognized after moving through an area of low visibility ZLD through, based on a distance between two adjacent sensors 2 with overlapping fields of view FoV defining the region of low visibility and based on the stored kinematics characteristics KIN of the marked dead band object DZO be calculated. In the illustrated application of 1 are the distance between the two sensors 2-1 . 2-2 in front of the chassis of the vehicle and the angle of their respective field of vision FoV known, so the geometry of the area with low visibility ZLD can be derived. Because the direction and speed of the moving object NOT A WORD when entering an area with little visibility ZLD can be stored, the time to which the marked dead band object DZO in an area with high visibility, ie in the field of vision FOV2 of the other sensor 2-2 reappears, be calculated. The moving object MO can be tracked at least until the calculated predicted time has been reached.

In einer möglichen Ausführungsform kann ein Sensor 2, der erkennt, dass ein bewegliches Objekt MO sein Sichtfeld FoV verlässt und auf einen Bereich mit geringer Erkennbarkeit ZLD zusteuert, seine benachbarten Sensoren 2 informieren, dass erwartet wird, dass das Totbereichsobjekt DZO zu berechneten Zeiten, die anhand der gespeicherten Kinematikkennwerte des Totbereichsobjekts DZO und abhängig von den bekannten Abständen zwischen den jeweiligen Sensoren vorhergesagt werden, in ihre jeweiligen Sichtfelder FoV kommt. Beispielsweise können in dem Anwendungsfall von 1 die zwei Sensoren 2-1, 2-2 des Erkennungssystems 1, die sich an der Vorderseite des Fahrzeugs VEH befinden, in einer möglichen Ausführungsform über eine Kommunikationsschnittstelle miteinander kommunizieren. Nachdem er das sich bewegende Objekt MO als ein Totbereichsobjekt DZO markiert hat, kann der erste Sensor 2-1 den Objektdatensatz ODS des markierten Totbereichsobjekts DZO kopieren und ihn an alle benachbarten relevanten Sensoren, beispielsweise an den benachbarten Sensor 2-2, übermitteln, wie in 1 dargestellt. Die markierten Totbereichsobjekte DZO werden überwacht und das Erkennungssystem 1 wartet darauf, dass das Objekt in dem vorhergesagten Bereich zu der vorhergesagten Zeit erneut erfasst und erkannt wird. Die Zeit kann unter Verwendung des Abstands zwischen den Sensoren 2, des Abstands, den das Objekt benötigt, um das Sichtfeld FoV des Objektsensors zu erreichen, sowie der absoluten Geschwindigkeit oder Schnelligkeit des sich bewegenden Objekts berechnet werden. Wenn durch keinen der anderen Sensoren 2 zu den entsprechenden vorhergesagten Zeiten ein Objekt MO mit hoher Priorität erkannt wird, kann das Objekt MO mit gleichen Kinematikkennwerten wie das Eigenfahrzeug VEH in den Nichtsichtbarkeitsbereich oder Bereich mit geringer Erkennbarkeit ZLD zwischen den Sensoren 2 gesetzt und der Fahrer des Fahrzeugs VEH entsprechend gewarnt werden.In one possible embodiment, a sensor 2 that recognizes a moving object NOT A WORD his field of vision FoV leaves and on an area with low visibility ZLD is heading for its neighboring sensors 2 inform that it is expected that the dead zone object DZO at calculated times based on the stored kinematics characteristics of the dead band object DZO and predicted in their respective fields of view depending on the known distances between the respective sensors FoV comes. For example, in the case of 1 the two sensors 2-1 . 2-2 of the recognition system 1 located at the front of the vehicle VEH are in a possible embodiment communicate with each other via a communication interface. After seeing the moving object MO as a dead zone object DZO has marked, the first sensor 2-1 the object record ODS of the marked dead band object DZO copy and send it to all adjacent relevant sensors, such as the adjacent sensor 2-2 , submit, as in 1 shown. The marked dead band objects DZO are monitored and the detection system 1 waits for the object in the predicted area to be re-detected and detected at the predicted time. The time can be measured using the distance between the sensors 2 , the distance the object takes to reach the field of view FoV of the object sensor and the absolute speed of the moving object. If not by any of the other sensors 2 an object at the corresponding predicted times NOT A WORD recognized with high priority, the object can NOT A WORD with the same kinematics characteristics as the own vehicle VEH in the non-visibility area or area with low visibility ZLD between the sensors 2 set and the driver of the vehicle VEH be warned accordingly.

Das Verfahren und System gemäß der vorliegenden Erfindung berücksichtigt, dass kein Objekt mit einer guten Sensorsignalhistorie und einer entsprechenden hohen Existenz von Wahrscheinlichkeit P plötzlich verschwinden kann. Jedes erkannte Objekt, dessen Existenz mit einer hohen Wahrscheinlichkeit P erkannt wurde, stellt ein physisches Objekt dar, das den Regeln der physischen Welt folgt und nur verschwinden kann, wenn es die Sichtfelder FoV der jeweiligen Sensoren 2 verlässt.The method and system according to the present invention contemplates that there is no object with a good sensor signal history and a corresponding high probability of likelihood P can suddenly disappear. Every recognized object, its existence with a high probability P is recognized represents a physical object that follows the rules of the physical world and can only disappear if there are the fields of view FoV the respective sensors 2 leaves.

In einer möglichen Ausführungsform gestaltet sich der Prozess des Nachverfolgens eines Objekts in einem Bereich mit geringer Erkennbarkeit ZLD wie folgt. Das Objekt, das aufgrund seiner qualitativ hochwertigen Erkennungssignale eine hohe berechnete Wahrscheinlichkeit P seiner Existenz aufweist, wird als ein Totbereichsobjekt DZO markiert, wenn das Objekt auf einen Bereich mit geringer Erkennbarkeit ZLD zusteuert oder wenn es plötzlich nicht erfasst wird. Ferner werden die Kinematikkennwerte des markierten Objekts MO aus der letzten mit hoher Wahrscheinlichkeit erfolgten Erkennung gespeichert. Das Objekt MO wird lebendig erhalten und es wird eine Live-Nachverfolgung durchgeführt, bis das markierte Totbereichsobjekt DZO erneut durch das Erkennungssystem 1 erkannt wird.In one possible embodiment, the process of tracking an object in an area of low visibility is accomplished ZLD as follows. The object, due to its high quality detection signals, has a high calculated probability P its existence is considered as a dead zone object DZO marked if the object is on an area with low visibility ZLD is heading or if it is suddenly not detected. Furthermore, the kinematic characteristics of the selected object NOT A WORD saved from the last highly probable recognition. The object NOT A WORD will get alive and it will a live tracking is performed until the marked deadband object DZO again through the recognition system 1 is recognized.

Beim Erkennen von Signalpunktclustern in dem Bereich mit geringer Erkennbarkeit ZLD des markierten Totbereichsobjekts DZO können die Sensorsignalwerte zusammengeführt und dem markierten Totbereichsobjekt DZO zugeordnet werden, ohne ein neues Datenobjekt zu erzeugen.Upon detection of signal point clusters in the area of low visibility ZLD of the marked dead band object DZO The sensor signal values can be combined and the marked dead band object DZO be assigned without creating a new data object.

Das markierte Totbereichsobjekt DZO kann an andere intelligente Sensoren gesendet werden, um den Moment und die Zeit zu berechnen, zu dem/r erwartet wird, dass das markierte Totbereichsobjekt DZO erneut erkannt wird. Die Kinematikkennwerte KIN des Objekts KIN werden nach einer Erkennung durch den anderen Sensor aktualisiert und es wird kein neues Objekt erzeugt, das in den ersten paar Verarbeitungszyklen schlechte Werte aufweisen könnte. Wenn das markierte Totbereichsobjekt DZO nicht durch den ausgewählten anderen Sensor des Erkennungssystems 1 zu der berechneten definierten Zeit erkannt wird, kann das Objekt MO in einen/m Nichtsichtbarkeitsbereich gesetzt oder platziert werden und ein Warnsignal an den Fahrer des Fahrzeugs VEH ausgegeben werden, wenn die Verkehrssituation kritisch und eine Kollision mit dem markierten Totbereichsobjekt DZO möglich ist. Das Objekt kann in einer möglichen Ausführungsform gelöscht werden, wenn es für die autonomen Fahrfunktionen nicht länger wichtig oder relevant ist, insbesondere wenn das Fahrzeug VEH sich aufgrund eines Fahrmanövers von dem Bereich mit geringer Erkennbarkeit ZLD weg bewegt hat.The marked dead band object DZO can be sent to other smart sensors to calculate the instant and time that the dead zone object is expected to be detected DZO is recognized again. The kinematics characteristics KIN of the object KIN are updated upon detection by the other sensor and no new object is generated which may have poor values in the first few processing cycles. If the marked dead band object DZO not through the selected other sensor of the detection system 1 detected at the calculated defined time, the object can NOT A WORD placed or placed in a non-visibility area and a warning signal to the driver of the vehicle VEH issued when the traffic situation critical and a collision with the marked dead zone object DZO is possible. In one possible embodiment, the object may be deleted if it is no longer important or relevant for the autonomous driving functions, in particular if the vehicle VEH due to a maneuver from the area of low visibility ZLD has moved away.

Mit dem Verfahren und der Vorrichtung gemäß der vorliegenden Erfindung ist es möglich, Objekte mit hoher Priorität um das Eigenfahrzeug VEH herum durch Betrachten der Kinematikkennwerte und Vorhersagen ihrer Position und Bewegung lebendig zu erhalten, auch wenn die Objekte nicht durch Sensoren 2 des Erkennungssystems 1 erkannt werden. Jedwedes Objekt, das über eine lange Zeit erkannt wurde und eine sehr hohe Wahrscheinlichkeit P seiner Existenz aufweist, kann nicht einfach plötzlich aus dem Fahrzeugumfeld verschwinden. Das Verfahren und die Vorrichtung gemäß der vorliegenden Erfindung verbessern die probabilistische Bestimmung der Welt um das Fahrzeug VEH herum. Das nachverfolgte Totbereichsobjekt DZO kann dazu verwendet werden, Kollisionspunkte, Reflexionspunkte sowie zukünftige Wege von dem vorhergesagten und berechneten Objekt zu berechnen.With the method and apparatus according to the present invention, it is possible to obtain high priority objects around the own vehicle VEH to get alive by looking at the kinematics and predicting their position and movement, even if the objects are not detected by sensors 2 of the recognition system 1 be recognized. Any object that has been detected for a long time and a very high probability P its existence can not simply disappear suddenly from the vehicle environment. The method and apparatus according to the present invention enhances the probabilistic determination of the world around the vehicle VEH around. The tracked dead band object DZO can be used to calculate collision points, reflection points and future paths from the predicted and calculated object.

2 zeigt ein Ablaufdiagramm eines möglichen Ausführungsbeispiels eines Verfahrens zum Nachverfolgen eines beweglichen Objekts MO in einem Totbereich mit geringer Erkennbarkeit ZLD eines Erkennungssystems 1 eines Fahrzeugs VEH. 2 shows a flowchart of a possible embodiment of a method for tracking a moving object NOT A WORD in a dead zone with low visibility ZLD a recognition system 1 of a vehicle VEH ,

In einem ersten Schritt S1 wird jedes bewegliche Objekt MO, das aufgrund seiner Historie von Sensorsignalen, die durch Sensoren 2 des Erkennungssystems 1 des Fahrzeugs VEH erkannt werden, eine hohe Wahrscheinlichkeit P seiner Existenz aufweist, als ein Totbereichsobjekt DZO markiert, wenn das jeweilige bewegliche Objekt MO auf einen Bereich mit geringer Erkennbarkeit ZLD zusteuert und/oder wenn für das jeweilige bewegliche Objekt MO durch keinen Sensor 2 des Erkennungssystems 1 des Fahrzeugs VEH länger Sensorsignale erkannt werden.In a first step S1 becomes every moving object NOT A WORD due to its history of sensor signals generated by sensors 2 of the recognition system 1 of the vehicle VEH be recognized, a high probability P has its existence as a dead zone object DZO marked if the respective moving object NOT A WORD to an area with little visibility ZLD is heading and / or if for the respective moving object NOT A WORD by no sensor 2 of the recognition system 1 of the vehicle VEH longer sensor signals are detected.

In einem weiteren Schritt S2 wird das markierte Totbereichsobjekt DZO wenigstens nachverfolgt, bis ein vorhergesagter berechneter Zeitraum verstrichen ist. Es kann die Zeit berechnet werden, zu der erwartet wird, dass das markierte Totbereichsobjekt DZO erneut mit einer hohen Wahrscheinlichkeit P seiner Existenz erkannt wird, nachdem es sich durch den Bereich mit geringer Erkennbarkeit ZLD hindurch bewegt hat. Das Nachverfolgen des markierten Totbereichsobjekts DZO wird fortgesetzt, bis dieser Moment oder Zeitpunkt erreicht wurde.In a further step S2 becomes the marked dead band object DZO followed at least until a predicted calculated period of time has elapsed. The time can be calculated to be expected to be the marked deadband object DZO Once again with a high probability P of its existence is recognized, after moving through the area of low visibility ZLD has moved through. Tracing the marked deadband object DZO will continue until this moment or time has been reached.

3, 4 zeigen mögliche beispielhafte Realisierungen eines Erkennungssystems 1 gemäß der vorliegenden Erfindung. In den dargestellten Ausführungsformen umfasst ein Fahrzeug VEH, wie etwa ein Auto, eine vorgegebene Anzahl von Sensoren 2-i. Diese Sensoren 2-i sind um das Fahrgestell des Fahrzeugs herum angeordnet und weisen überlappende Sichtfelder FoV auf. In der dargestellten Ausführungsform umfasst das Erkennungssystem 1 vier Sensoren 2-1, 2-2, 2-3, 2-4. Die Sensoren 2-i des Erkennungssystems 1 sind in einer bevorzugten Ausführungsform intelligente Sensoren, wie auch in dem Blockdiagramm von 5 dargestellt. Die Sensoren 2 können Kommunikationsschnittstellen umfassen, um miteinander zu kommunizieren und/oder um mit einer zentralen Verarbeitungseinheit 3 zu kommunizieren, wie in der Ausführungsform von 4 dargestellt. In der Ausführungsform von 3 sind die Verarbeitungsfähigkeiten innerhalb der intelligenten Sensorvorrichtungen 2-i vorgesehen, die über die Kommunikationsschnittstellen und Signalleitungen, wie etwa einen Kommunikationsbus 4, gemäß einem vorgegebenen Kommunikationsprotokoll miteinander kommunizieren. 3 . 4 show possible exemplary implementations of a recognition system 1 according to the present invention. In the illustrated embodiments, a vehicle includes VEH such as a car, a given number of sensors 2-i , These sensors 2-i are arranged around the chassis of the vehicle and have overlapping fields of view FoV on. In the illustrated embodiment, the recognition system includes 1 four sensors 2-1 . 2-2 . 2-3 . 2-4 , The sensors 2-i of the recognition system 1 are in a preferred embodiment, smart sensors, as well as in the block diagram of 5 shown. The sensors 2 may include communication interfaces to communicate with each other and / or to a central processing unit 3 to communicate, as in the embodiment of 4 shown. In the embodiment of 3 are the processing capabilities within the smart sensor devices 2-i provided via the communication interfaces and signal lines, such as a communication bus 4 to communicate with each other in accordance with a given communication protocol.

Wie in dem Blockdiagramm von 5 dargestellt, umfasst der intelligente Sensor 2 des Erkennungssystems 1 in der dargestellten Ausführungsform wenigstens ein Sensorelement 2A, das dazu ausgelegt ist, Sensorsignale zu erzeugen, sowie einen lokalen Prozessor 2B, der dazu ausgelegt ist, die durch das Sensorelement 2A erzeugten lokalen Sensorsignale zu verarbeiten. Der intelligente Sensor 2 umfasst in der dargestellten Ausführungsform ferner einen lokalen Speicher 2C, der dazu ausgelegt ist, Objektdatensätze ODS für durch das Erkennungssystem 1 im Fahrzeugumfeld erkannte Objekte zu speichern. Der intelligente Sensor 2 umfasst in der dargestellten Ausführungsform ferner eine Kommunikationsschnittstelle 2D, die zur Kommunikation mit anderen Sensoren 2 des Erkennungssystems 1 und/oder mit einem zentralen Prozessor 3 des Erkennungssystems 1 verwendet wird. Der Objektdatensatz ODS eines Objekts, wie in 6 dargestellt, kann in einer möglichen Ausführungsform in dem lokalen Speicher 2C des intelligenten Sensors 2 gespeichert werden, der in 5 gezeigt ist.As in the block diagram of 5 represented, includes the intelligent sensor 2 of the recognition system 1 in the illustrated embodiment, at least one sensor element 2A which is designed to generate sensor signals and a local processor 2 B which is designed by the sensor element 2A to process generated local sensor signals. The intelligent sensor 2 In the illustrated embodiment, it also includes a local memory 2C that's about it is designed, object records ODS for through the recognition system 1 to save objects detected in the vehicle environment. The intelligent sensor 2 In the illustrated embodiment, further comprises a communication interface 2D for communication with other sensors 2 of the recognition system 1 and / or with a central processor 3 of the recognition system 1 is used. The object record ODS of an object, as in 6 in one possible embodiment, in the local memory 2C of the intelligent sensor 2 be stored in 5 is shown.

7 zeigt einen möglichen Anwendungsfalls des Verfahrens und der Vorrichtung 1 gemäß der vorliegenden Erfindung. In dem dargestellten Anwendungsfall sind vier intelligente Sensoren 2-i um das Fahrgestell des Fahrzeugs herum angeordnet und definieren vier unterschiedliche Bereiche mit geringer Erkennbarkeit, d. h. einen ersten Bereich mit geringer Erkennbarkeit ZLDFront vor dem Fahrzeug VEH, einen zweiten Bereich mit geringer Erkennbarkeit ZLDRear an der Heckseite des Fahrzeugs VEH und zwei Bereiche mit geringer Erkennbarkeit auf der linken und rechten Seite des Fahrzeugs VEH. Jeder der vier Sensoren 2 weist ein Sichtfeld FoV auf, das sich mit anderen Sichtfeldern FoV der übrigen Sensoren überlappen kann, die Bereiche mit geringer Erkennbarkeit ZLD außerhalb der überlappenden Sichtfelder FoV der unterschiedlichen Sensoren 2-i definieren. Das Verfahren gemäß der vorliegenden Erfindung versieht das bewegliche Objekt MO, wie etwa einen Fußgänger, mit einem Markierungszeichen, wenn es auf einen Bereich mit geringer Erkennbarkeit ZLD zusteuert. Dementsprechend versieht das Verfahren das Objekt MO frühzeitig mit einem Markierungszeichen, wenn es noch durch einen der Sensoren 2-i des Erkennungssystems 1 erkannt wird. Wenn das bewegliche Objekt MO nicht länger erkannt werden kann, wird vorhergesagt, dass das Objekt MO sich mit den gleichen Kinematikkennwerten bewegt, mit denen es zuletzt erkannt wurde. Ein Sensor 2-i kann anderen Sensoren 2-j ankündigen, dass ein Objekt mit hoher Wichtigkeit, wie etwa ein Fußgänger, bald in ihre jeweiligen Sichtfelder kommen wird. Jedoch wird, wenn dieses Objekt MO nicht im Sichtfeld FoV des anderen Sensors ankommt, vorhergesagt, dass es in dem Bereich mit geringer Erkennbarkeit ZLD angehalten hat und möglicherweise für einen vorgegebenen Zeitraum von mehreren Sekunden dort behalten wird, und es kann eine Warnung über ein markiertes Totbereichsobjekt DZO in dem Bereich mit geringer Erkennbarkeit ZLD an den Fahrer des Fahrzeugs VEH ausgegeben werden. 7 shows a possible application of the method and the device 1 according to the present invention. In the illustrated application, there are four smart sensors 2-i arranged around the chassis of the vehicle and define four different areas with low visibility, ie, a first area with low visibility ZLD front in front of the vehicle VEH , a second area with low visibility ZLD Rear at the rear of the vehicle VEH and two areas of low visibility on the left and right sides of the vehicle VEH , Each of the four sensors 2 has a field of view FoV which overlaps with other fields of view FoV of the other sensors, the areas with little recognizability ZLD outside the overlapping fields of view FoV the different sensors 2-i define. The method according to the present invention provides the movable object NOT A WORD such as a pedestrian, with a marker when pointing to an area with low visibility ZLD heading. Accordingly, the method provides the object NOT A WORD early with a marker, if it is still through one of the sensors 2-i of the recognition system 1 is recognized. When the moving object NOT A WORD can no longer be detected, it is predicted that the object MO will move with the same kinematic characteristics with which it was last detected. A sensor 2-i can other sensors 2-j announce that an object of great importance, such as a pedestrian, will soon come into their respective fields of vision. However, if this object becomes NOT A WORD not in the field of vision FoV the other sensor predicts that it will be in the area of low visibility ZLD has stopped and may be kept there for a predetermined period of several seconds, and there may be a warning about a marked deadband object DZO in the area of low visibility ZLD to the driver of the vehicle VEH be issued.

8 zeigt eine weitere Verkehrssituation oder einen Anwendungsfall, in der/m das Verfahren und die Vorrichtung gemäß der vorliegenden Erfindung verwendet werden können. In der dargestellten Ausführungsform befindet sich eine andere Art beweglicher Objekte MO innerhalb eines Bereichs mit geringer Erkennbarkeit ZLD auf der rechten Seite des Fahrgestells des Fahrzeugs. Beispielsweise kann ein Fahrzeug VEH1, das in 8 dargestellt ist, ein langer Lastkraftwagen oder ein großes Auto sein und ein Fahrrad als ein sich bewegendes Objekt MO kann sich innerhalb des rechten Bereichs mit geringer Erkennbarkeit ZLD befinden, wie in 8 dargestellt. In dem dargestellten Anwendungsfall von 8 kann das Fahrrad MO sich über einen relativ langen Zeitraum parallel zu dem Fahrzeug VEH1 bewegen und bei einem herkömmlichen System wird möglicherweise keine Warnung bezüglich einer Totwinkelerkennung BSD erzeugt, wenn das Fahrrad MO in dem Bereich mit geringer Erkennbarkeit ZLD oder Totbereich verloren geht, wie in 8 gezeigt. Wenn in einer derartigen Verkehrssituation das Fahrzeug VEH im Rahmen eines Abbiegefahrmanövers nach rechts gelenkt wird, ist eine Kollision zwischen dem Fahrgestell des Fahrzeugs und dem sich bewegenden Fahrrad sehr wahrscheinlich und die Person, die das Fahrrad fährt, kann ernsthaft verletzt werden. In einer möglichen Ausführungsform wird das sich bewegende Fahrrad MO weiter nachverfolgt, bis es wieder auftaucht und durch das Erkennungssystem 1 erneut erkannt wird und dem System 1 nicht verloren gehen kann. Dementsprechend kann in einer möglichen Ausführungsform das Rechtsabbiegefahrmanöver aufgrund des markierten Totbereichsobjekts DZO innerhalb des Bereichs mit geringer Erkennbarkeit ZLDR automatisch blockiert werden. Infolgedessen wird eine Kollision vermieden. Folglich kann das Verfahren und System 1 gemäß der vorliegenden Erfindung die Sicherheit anderer Verkehrsteilnehmer sowie die Sicherheit des Fahrers und der Passagiere des Fahrzeugs VEH erheblich erhöhen. 8th Figure 11 shows another traffic situation or application in which the method and apparatus according to the present invention may be used. In the illustrated embodiment is another type of moving objects NOT A WORD within an area of low visibility ZLD on the right side of the chassis of the vehicle. For example, a vehicle VEH 1 , this in 8th being a long truck or a big car and a bicycle as a moving object NOT A WORD may be within the right-hand area with less recognizability ZLD are as in 8th shown. In the illustrated application of 8th can the bike NOT A WORD over a relatively long period parallel to the vehicle VEH 1 and in a conventional system may not be a warning regarding blind spot detection BSD generated when the bike NOT A WORD in the area of low visibility ZLD or dead area is lost, as in 8th shown. If in such a traffic situation the vehicle VEH is directed to the right in the context of a turning maneuver, a collision between the chassis of the vehicle and the moving bike is very likely and the person riding the bike can be seriously injured. In one possible embodiment, the moving bicycle becomes NOT A WORD followed up until it reappears and through the detection system 1 is recognized again and the system 1 can not be lost. Accordingly, in one possible embodiment, the right turn maneuver may be due to the marked deadband object DZO within the area of low visibility Z LD R be blocked automatically. As a result, a collision is avoided. Consequently, the method and system 1 according to the present invention, the safety of other road users and the safety of the driver and passengers of the vehicle VEH increase significantly.

9, 10, 11 veranschaulichen einen weiteren möglichen Anwendungsfall für das Verfahren und die Vorrichtung 1 gemäß der vorliegenden Erfindung. In der in 9 dargestellten Verkehrssituation hält das Fahrzeug VEH1 vor einer Ampel an, die ein rotes Licht zeigt. Andere Fahrzeuge VEH', VEH", VEH'" halten gleichzeitig vor der Ampel an, wie in 9 dargestellt. In dem dargestellten Beispiel sind drei zusätzliche Fahrzeuge innerhalb des Umfelds des Fahrzeugs VEH1 vorhanden, d. h. ein langer Lastkraftwagen VEH' auf der linken Seite, ein großes Auto VEH" auf der rechten Seite sowie ein weiteres Auto VEH'" hinter dem Fahrzeug VEH. Nachdem die Fahrzeuge eine bestimmte Zeit lang vor der roten Ampel angehalten haben, können die relativ langen Fahrzeuge auf beiden Seiten des Fahrzeugs VEH1 durch das System 1 als Fahrbahnbegrenzungen oder Wände W ausgelegt werden, insbesondere aufgrund qualitativ geringwertiger reflektierter Radarsignale und suboptimaler Annahmen bezüglich des Verkehrsszenarios. Es können sogar beide Objekte verschwinden, wie auch in 10 dargestellt. Wenn das Eigenfahrzeug VEH1 sich in Bewegung setzt, wenn die Ampel auf Grün schaltet, kann eine Situation wie in 11 dargestellt eintreten, in der die langen Fahrzeuge auf beiden Seiten des Eigenfahrzeugs VEH jeweils als zwei kleine Einheiten ausgelegt werden und ein nahes Objekt plötzlich hinter dem Fahrzeug VEH auftauchen kann. Durch das Verfahren und die Vorrichtung 1 gemäß der vorliegenden Erfindung können diese Arten von Verwirrungen vermieden werden. Folglich können für Heckaufprallrisikosysteme falsche Warnungen vermieden werden, wenn das Eigenfahrzeug VEH sich erneut in Bewegung setzt. Das Verfahren und die Vorrichtung 1 gemäß der vorliegenden Erfindung erhält Datensätze oder Objektdatensätze ODS wichtiger Objekte auf einheitliche Weise mit einer hohen Präzision und Genauigkeit lebendig. Die Leistung des Erkennungssystems 1 wird erheblich verbessert und folglich kann jedwede Art von Fahrerassistenzsystem oder autonomem Fahrsystem, das sich auf durch das Erkennungssystem 1 bereitgestellte Informationen stützt, effizienter arbeiten und eine verbesserte Sicherheit für alle Verkehrsteilnehmer bereitstellen. 9 . 10 . 11 illustrate another possible use case for the method and apparatus 1 according to the present invention. In the in 9 illustrated traffic situation holds the vehicle VEH 1 in front of a traffic light, which shows a red light. Other vehicles VEH ' . VEH " . VEH '" stop at the traffic light at the same time as in 9 shown. In the illustrated example, three additional vehicles are within the environment of the vehicle VEH 1 available, ie a long truck VEH ' on the left, a big car VEH " on the right as well as another car VEH '" behind the vehicle VEH , After the vehicles have stopped for a certain time in front of the red traffic light, the relatively long vehicles may be on both sides of the vehicle VEH 1 through the system 1 be designed as lane boundaries or walls W, in particular due to low-quality reflected radar signals and suboptimal assumptions regarding the traffic scenario. It can even disappear both objects, as well as in 10 shown. If the own vehicle VEH 1 When the traffic light switches to green, a situation like 11 occur in which the long vehicles on both sides of the own vehicle VEH each designed as two small units and a close object suddenly behind the vehicle VEH can emerge. By the method and the device 1 According to the present invention, these types of confusions can be avoided. As a result, false warnings can be avoided for the rear impact risk systems when the own vehicle VEH starts moving again. The method and the device 1 according to the present invention obtains records or object records ODS vital objects in a consistent manner with high precision and accuracy alive. The performance of the detection system 1 is greatly improved, and consequently, any type of driver assistance system or autonomous driving system that responds to the recognition system 1 information provided, work more efficiently and provide improved safety for all road users.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Erkennungssystemrecognition system
22
Sensorsensor
2A2A
Sensorelementsensor element
2B2 B
Prozessorprocessor
2C2C
SpeicherStorage
2D2D
Schnittstelleinterface
33
zentrale Verarbeitungseinheitcentral processing unit
44
DatenbankDatabase

Claims (16)

Verfahren zum Nachverfolgen eines beweglichen Objekts in einem Bereich mit geringer Erkennbarkeit (ZLD) eines Erkennungssystems (1) eines Fahrzeugs (VEH), wobei das Verfahren folgende Schritte umfasst: (a) Markieren (S1) jedes beweglichen Objekts (MO), das aufgrund seiner Historie von Sensorsignalen, die durch Sensoren (2) des Erkennungssystems (1) des Fahrzeugs (VEH) erkannt werden, eine hohe Wahrscheinlichkeit (P) seiner Existenz aufweist, als ein Totbereichsobjekt (DZO), wenn das jeweilige bewegliche Objekt (MO) auf einen Bereich mit geringer Erkennbarkeit (ZLD) zusteuert und/oder wenn für das jeweilige bewegliche Objekt (MO) durch keinen Sensor (2) des Erkennungssystems (1) des Fahrzeugs (VEH) länger Sensorsignale erkannt werden; und (b) Nachverfolgen (S2) des markierten Totbereichsobjekts (DZO), wenigstens bis eine vorhergesagte Zeit verstrichen ist, zu der erwartet wird, dass das markierte Totbereichsobjekt (DZO) erneut mit einer hohen Wahrscheinlichkeit (P) seiner Existenz erkannt wird, nachdem es sich durch den Bereich mit geringer Erkennbarkeit (ZLD) hindurch bewegt hat.A method of tracking a moving object in a low visibility area (ZLD) of a vehicle identification (VEH) detection system (1), the method comprising the steps of: (a) marking (S1) each moving object (MO) having a high probability (P) of its existence due to its history of sensor signals detected by sensors (2) of the vehicle's detection system (1) (VEH), as a dead zone object (DZO) when the respective moving object (MO) is heading for a zone of low visibility (ZLD) and / or for the respective moving object (MO) by no sensor (2) of the detection system (1) of the vehicle (VEH) longer sensor signals are detected; and (b) tracking (S2) the marked deadband object (DZO), at least until a predicted time has elapsed, when the marked dead area object (DZO) is expected to be recognized again with a high probability (P) of its existence, after it has reached through the area of low visibility (ZLD). Verfahren zum Nachverfolgen eines beweglichen Objekts (MO) nach Anspruch 1, wobei Kinematikkennwerte eines beweglichen Objekts (MO) für seine letzte mit hoher Wahrscheinlichkeit (P) erfolgte Erkennung gespeichert werden, wenn es als ein Totbereichsobjekt (DZO) markiert wird.Method for tracking a moving object (MO) Claim 1 wherein kinematics characteristics of a moving object (MO) are stored for its last high probability (P) detection when marked as a dead zone object (DZO). Verfahren nach Anspruch 1 oder 2, wobei die vorhergesagte Zeit eines markierten Totbereichsobjekts (DZO) auf der Grundlage der gespeicherten Kinematikkennwerte des markierten Totbereichsobjekts (DZO) berechnet wird.Method according to Claim 1 or 2 wherein the predicted time of a marked dead band object (DZO) is calculated based on the stored kinematics characteristics of the marked dead band object (DZO). Verfahren nach Anspruch 2 oder 3, wobei die gespeicherten Kinematikkennwerte eines markierten Totbereichsobjekts (DZO) dessen letzte erkannte Position, Richtung, Geschwindigkeit und/oder Beschleunigung umfassen.Method according to Claim 2 or 3 wherein the stored kinematics characteristics of a marked dead zone object (DZO) include its last detected position, direction, speed and / or acceleration. Verfahren nach einem der vorangehenden Ansprüche 1 bis 4, wobei für jedes bewegliche Objekt (MO) im Fahrzeugumfeld ein Datensatz geführt wird, der umfasst: eine Objektkennung, eine berechnete Wahrscheinlichkeit (P) seiner Existenz, Kinematikkennwerte des beweglichen Objekts (MO) und ein Totbereichsmarkierungszeichen, das markiert, ob das bewegliche Objekt (MO) ein Totbereichsobjekt (DZO) ist.Method according to one of the preceding Claims 1 to 4 in which for each mobile object (MO) in the vehicle environment a data record is kept, which comprises: an object identifier, a calculated probability (P) of its existence, kinematics characteristics of the mobile object (MO) and a dead band marking which indicates whether the mobile object ( MO) is a dead zone object (DZO). Verfahren nach einem der vorangehenden Ansprüche 1 bis 5, wobei, wenn zu der vorhergesagten Zeit durch das Erkennungssystem (1) des Fahrzeugs (VEH) ein markiertes Totbereichsobjekt (DZO) erneut mit einer hohen Wahrscheinlichkeit (P) seiner Existenz erkannt wird, die Kinematikkennwerte des Objekts aktualisiert werden und das Objekt nicht länger als ein Totbereichsobjekt (DZO) markiert wird.Method according to one of the preceding Claims 1 to 5 wherein, if at the predicted time by the vehicle recognition system (VEH) a marked dead area object (DZO) is again detected with a high probability (P) of existence, the kinematics characteristics of the object are updated and the object is not longer than a dead zone object (DZO) is marked. Verfahren nach einem der vorangehenden Ansprüche 1 bis 6, wobei, wenn zu der vorhergesagten Zeit durch das Erkennungssystem (1) des Fahrzeugs (VEH) ein markiertes Totbereichsobjekt (DZO) nicht erneut mit einer hohen Wahrscheinlichkeit (P) seiner Existenz erkannt wird, eine Warnung ausgegeben wird, dass ein bewegliches Objekt (MO) innerhalb des jeweiligen Bereichs mit geringer Erkennbarkeit (ZLD) angehalten hat und/oder dass Fahrmanöver, die möglicherweise zu einer Kollision mit dem angehaltenen beweglichen Totbereichsobjekt führen, zu vermeiden sind.Method according to one of the preceding Claims 1 to 6 in which, if at the predicted time by the vehicle detection system (VEH) a marked dead area object (DZO) is not recognized again with a high probability (P) of existence, a warning is issued that a moving object (MO ) within the respective area of low visibility (ZLD) has stopped and / or that driving maneuvers that possibly lead to a collision with the stopped movable dead area object are to be avoided. Verfahren nach einem der vorangehenden Ansprüche 1 bis 7, wobei, wenn ein durch das Fahrzeug (VEH) durchgeführtes Fahrmanöver eine mögliche Kollision mit dem markierten Totbereichsobjekt (DZO) unterbindet und/oder als Folge aufweist, dass das markierte Totbereichsobjekt (DZO) den Bereich mit geringer Erkennbarkeit (ZLD) verlässt, das Objekt nicht länger als ein Totbereichsobjekt (DZO) markiert wird.Method according to one of the preceding Claims 1 to 7 wherein, when a driving maneuver performed by the vehicle (VEH) is a prevents possible collision with the marked dead area object (DZO) and / or has as a consequence that the marked dead area object (DZO) leaves the area with low detectability (ZLD), the object is no longer marked as a dead area object (DZO). Verfahren nach einem der vorangehenden Ansprüche 1 bis 8, wobei, wenn ein bewegliches Objekt (MO) für einen bestimmten Totbereich mit geringer Erkennbarkeit (ZLD) als ein Totbereichsobjekt (DZO) markiert wurde, Sensorsignalcluster in dem jeweiligen Bereich mit geringer Erkennbarkeit (ZLD) dem markierten Totbereichsobjekt (DZO) zugeordnet werden.Method according to one of the preceding Claims 1 to 8th wherein, when a moving object (MO) has been marked as a dead area object (DZO) for a particular dead zone of low visibility (ZLD), sensor signal clusters in the respective area of low visibility (ZLD) are assigned to the marked dead area object (DZO). Verfahren nach einem der vorangehenden Ansprüche 1 bis 9, wobei jeder Sensor (2) des Erkennungssystems (1) ein Sichtfeld (FoV) aufweist, in dem bewegliche Objekte (MO) mit einer hohen Erkennbarkeit erkannt werden.Method according to one of the preceding Claims 1 to 9 wherein each sensor (2) of the recognition system (1) has a field of view (FoV), in which movable objects (MO) are recognized with a high detectability. Verfahren nach einem der vorangehenden Ansprüche 1 bis 10, wobei das Erkennungssystem (1) mehrere Sensoren (2) umfasst, die um das Fahrgestell des Fahrzeugs (VEH) herum positioniert sind und überlappende Sichtfelder (FoV) mit einer hohen Erkennbarkeit und Bereiche mit geringer Erkennbarkeit (ZLD) außerhalb der überlappenden Sichtfelder (FoV) bereitstellen.Method according to one of the preceding Claims 1 to 10 wherein the recognition system (1) comprises a plurality of sensors (2) positioned around the chassis of the vehicle (VEH) and overlapping fields of view (FoV) with high visibility and areas of low visibility (ZLD) outside the overlapping fields of view (FoV ) provide. Verfahren nach einem der vorangehenden Ansprüche 1 bis 11, wobei die Sensoren (2) des Erkennungssystems (1) Radarsensoren umfassen, die Radarsignale aussenden, die durch Objekte innerhalb ihrer Sichtfelder (FoV) reflektiert werden.Method according to one of the preceding Claims 1 to 11 wherein the sensors (2) of the detection system (1) comprise radar sensors emitting radar signals reflected by objects within their fields of view (FoV). Verfahren nach einem der vorangehenden Ansprüche 1 bis 12, wobei die Vorhersagezeit, zu der erwartet wird, dass ein markiertes Totbereichsobjekt (DZO) erneut mit einer hohen Wahrscheinlichkeit (P) seiner Existenz erkannt wird, nachdem es sich durch den Bereich mit geringer Erkennbarkeit (ZLD) hindurch bewegt hat, auf der Grundlage eines Abstands zwischen zwei benachbarten Sensoren (2) mit überlappenden Sichtfeldern (FoV), die den Bereich mit geringer Erkennbarkeit (ZLD) definieren, und auf der Grundlage der gespeicherten Kinematikkennwerte des markierten Totbereichsobjekts (DZO) berechnet wird.Method according to one of the preceding Claims 1 to 12 wherein the prediction time to which a marked dead area object (DZO) is expected to be recognized again with a high probability (P) of existence after having moved through the area of low visibility (ZLD) based on a Distance between two adjacent sensors (2) with overlapping fields of view (FoV) defining the area of low visibility (ZLD) and calculated on the basis of the stored kinematic characteristics of the marked dead area object (DZO). Verfahren nach einem der vorangehenden Ansprüche 1 bis 13, wobei ein Sensor (2), der erkennt, dass ein bewegliches Objekt (MO) sein Sichtfeld (FoV) verlässt und auf einen Bereich mit geringer Erkennbarkeit (ZLD) zusteuert, benachbarte Sensoren (2) informiert, dass erwartet wird, dass zu Zeiten, die anhand der gespeicherten Kinematikkennwerte des Totbereichsobjekts (DZO) und der Abstände zwischen den jeweiligen Sensoren (2) vorhergesagt werden, ein Totbereichsobjekt (DZO) in ihre jeweiligen Sichtfelder (FoV) kommt.Method according to one of the preceding Claims 1 to 13 in that a sensor (2) recognizing that a moving object (MO) leaves its field of view (FoV) and is heading for an area of low visibility (ZLD), informs adjacent sensors (2) that it is expected to be at times , which are predicted on the basis of the stored kinematic parameters of the dead zone object (DZO) and the distances between the respective sensors (2), a dead zone object (DZO) comes into their respective fields of view (FoV). Objekterkennungssystem (1) eines Fahrzeugs (VEH), wobei das System umfasst: (a) Sensoren (2), die um ein Fahrgestell des Fahrzeugs (VEH) herum positioniert und dazu ausgelegt sind, Sensorsignale bereitzustellen, um Objekte im Fahrzeugumfeld innerhalb ihrer überlappenden Sichtfelder (FoV), die Bereiche mit geringer Erkennbarkeit (ZLD) außerhalb der überlappenden Sichtfelder (FoV) definieren, zu erkennen; und (b) wenigstens eine Verarbeitungseinheit (3), die dazu ausgelegt ist, die Sensorsignale zu verarbeiten, um bewegliche Objekte (MO) zu bestimmen, die eine hohe Wahrscheinlichkeit (P) ihrer Existenz aufweisen, und dazu ausgelegt ist, jedes bewegliche Objekt (MO) als ein Totbereichsobjekt (DZO) zu markieren, wenn das jeweilige bewegliche Objekt (MO) auf einen Bereich mit geringer Erkennbarkeit (ZLD) zusteuert und/oder wenn für das jeweilige bewegliche Objekt (MO) durch keinen Sensor (2) des Erkennungssystems (1) länger Sensorsignale erkannt werden, wobei das markierte Totbereichsobjekt (DZO) wenigstens nachverfolgt wird, bis eine vorhergesagte Zeit verstrichen ist, zu der erwartet wird, dass das markierte Totbereichsobjekt (DZO) erneut mit einer hohen Wahrscheinlichkeit (P) seiner Existenz erkannt wird, nachdem es sich durch den jeweiligen Bereich mit geringer Erkennbarkeit (ZLD) hindurch bewegt hat.An object recognition system (1) of a vehicle (VEH), the system comprising: (a) Sensors (2) positioned around a chassis of the vehicle (VEH) and adapted to provide sensor signals to objects in the vehicle environment within their overlapping fields of view (FoV), the areas of low visibility (ZLD) outside the overlapping ones Defining and recognizing visual fields (FoV); and (b) at least one processing unit (3) adapted to process the sensor signals to determine moving objects (MO) having a high probability (P) of existence, and adapted to each moving object (MO ) as a dead zone object (DZO) if the respective moving object (MO) is heading for a region of low detectability (ZLD) and / or if there is no sensor (2) of the recognition system (1) for the respective movable object (MO) ) longer sensor signals are detected, wherein the marked dead band object (DZO) is tracked at least until a predicted time has elapsed, when the marked dead band object (DZO) is expected to be recognized again with a high probability (P) of its existence, after it has moved through the respective area of low visibility (ZLD). Objekterkennungssystem nach Anspruch 15, wobei die Sensoren (2) des Erkennungssystems (1) intelligente Sensoren umfassen, wobei jeder intelligente Sensor umfasst: - wenigstens ein Sensorelement (2A), das dazu ausgelegt ist, Sensorsignale zu erzeugen, - einen lokalen Prozessor (2B), der dazu ausgelegt ist, Sensorsignale zu verarbeiten, - einen lokalen Speicher (2C), der dazu ausgelegt ist, Objektdatensätze (ODS) für durch das Erkennungssystem (1) im Fahrzeugumfeld erkannte Objekte zu speichern, und - eine Kommunikationsschnittstelle (2D), die dazu verwendet wird, mit anderen Sensoren (2) des Erkennungssystems (1) und/oder mit einem zentralen Prozessor (3) des Erkennungssystems (1) zu kommunizieren.Object recognition system according to Claim 15 wherein the sensors (2) of the detection system (1) comprise intelligent sensors, each intelligent sensor comprising: - at least one sensor element (2A) adapted to generate sensor signals, - a local processor (2B) adapted thereto is to process sensor signals, - a local memory (2C) adapted to store object data sets (ODS) for objects detected by the vehicle vision recognition system (1), and - a communication interface (2D) used to to communicate with other sensors (2) of the recognition system (1) and / or with a central processor (3) of the recognition system (1).
DE102018204590.9A 2018-03-27 2018-03-27 METHOD FOR FOLLOWING A MOVABLE OBJECT IN A FIELD OF LESS EXPELLABILITY Pending DE102018204590A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018204590.9A DE102018204590A1 (en) 2018-03-27 2018-03-27 METHOD FOR FOLLOWING A MOVABLE OBJECT IN A FIELD OF LESS EXPELLABILITY

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018204590.9A DE102018204590A1 (en) 2018-03-27 2018-03-27 METHOD FOR FOLLOWING A MOVABLE OBJECT IN A FIELD OF LESS EXPELLABILITY

Publications (1)

Publication Number Publication Date
DE102018204590A1 true DE102018204590A1 (en) 2019-10-02

Family

ID=67910019

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018204590.9A Pending DE102018204590A1 (en) 2018-03-27 2018-03-27 METHOD FOR FOLLOWING A MOVABLE OBJECT IN A FIELD OF LESS EXPELLABILITY

Country Status (1)

Country Link
DE (1) DE102018204590A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021110885A1 (en) 2021-04-28 2022-11-03 Audi Aktiengesellschaft Method for supporting a user of a motor vehicle, motor vehicle and computer program product
EP4160269A1 (en) * 2021-09-29 2023-04-05 Argo AI, LLC Systems and methods for onboard analysis of sensor data for sensor fusion

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050012604A1 (en) * 2003-07-08 2005-01-20 Nissan Motor Co., Ltd. Vehicle obstacle detecting device
US20170101092A1 (en) * 2014-05-29 2017-04-13 Toyota Jidosha Kabushiki Kaisha Driving support apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050012604A1 (en) * 2003-07-08 2005-01-20 Nissan Motor Co., Ltd. Vehicle obstacle detecting device
US20170101092A1 (en) * 2014-05-29 2017-04-13 Toyota Jidosha Kabushiki Kaisha Driving support apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Winner, H. [et al.] (Hrsg.): Handbuch Fahrerassistenzsysteme. 3. Aufl. Wiesbaden : Springer Vieweg, 2015. S. 456-466. - ISBN 978-3-658-05734-3 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021110885A1 (en) 2021-04-28 2022-11-03 Audi Aktiengesellschaft Method for supporting a user of a motor vehicle, motor vehicle and computer program product
EP4160269A1 (en) * 2021-09-29 2023-04-05 Argo AI, LLC Systems and methods for onboard analysis of sensor data for sensor fusion

Similar Documents

Publication Publication Date Title
EP3160813B1 (en) Method for producing a model of the surroundings of a vehicle
EP2826031B1 (en) Method for detecting traffic jams using a wireless vehicle-to-vehicle communication system
DE112012006226B4 (en) Driver assistance device
DE102019205223A1 (en) Threading systems and methods for threading vehicles
DE102017100633B4 (en) PREVENTION SAFETY DEVICE FOR CHANGING THE PRICE OF A SMALL VEHICLE
DE102019205228A1 (en) Threading systems and methods for vehicles on a main track
EP2953111B1 (en) Method and device for determining free parking spots in hgv parking lots and notification of hgv drivers
DE102016211183A1 (en) Method, device and system for carrying out an automated journey of a vehicle with the participation of at least one further vehicle
DE102015209947A1 (en) Evacuation travel assistance device
DE102015209943A1 (en) Evacuation travel assistance device.
DE102006047634A1 (en) Method for detecting an environment of a vehicle
DE102005002504A1 (en) Driver assistance system with driving-route prediction
DE102011014081A1 (en) Method for detecting a turning maneuver
DE102007037610A1 (en) A method of determining a probable range of motion of a living being
EP3627386A1 (en) Method and device for providing an image of the vicinity of a mobile device and motor vehicle comprising such a device
DE102018101487A1 (en) SYSTEMS AND METHODS OF COLLISION PREVENTION
DE102014016815A1 (en) Method for operating a vehicle
DE102020108857A1 (en) Method for planning a target trajectory
DE102015105784A1 (en) Distributed system for detecting and protecting vulnerable road users
DE102017118651A1 (en) Method and system for collision avoidance of a vehicle
WO2019215222A1 (en) Method for operating a motor vehicle for improving the working conditions of evaluation units in the motor vehicle, control system for performing a method of this kind, and motor vehicle having a control system of this kind
DE102015103361A1 (en) TRAFFIC DENSITY SENSITIVITY VOTERS
DE102018204590A1 (en) METHOD FOR FOLLOWING A MOVABLE OBJECT IN A FIELD OF LESS EXPELLABILITY
DE102016224576A1 (en) Behavior model of road users for a driver assistance system comprising statistics on deviations from standard behavior
DE202015007881U1 (en) Driver assistance system

Legal Events

Date Code Title Description
R163 Identified publications notified
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE