DE102019213951A1 - Method for minimizing coverage of a field of view of a sensor of a vehicle - Google Patents

Method for minimizing coverage of a field of view of a sensor of a vehicle Download PDF

Info

Publication number
DE102019213951A1
DE102019213951A1 DE102019213951.5A DE102019213951A DE102019213951A1 DE 102019213951 A1 DE102019213951 A1 DE 102019213951A1 DE 102019213951 A DE102019213951 A DE 102019213951A DE 102019213951 A1 DE102019213951 A1 DE 102019213951A1
Authority
DE
Germany
Prior art keywords
field
view
area
sensor
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019213951.5A
Other languages
German (de)
Inventor
Helge Zinner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Priority to DE102019213951.5A priority Critical patent/DE102019213951A1/en
Publication of DE102019213951A1 publication Critical patent/DE102019213951A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (100) zur Minimierung einer Abdeckung eines Sichtfelds eines Sensors (302) eines Fahrzeuges (200), wobei mittels einer Anpassung des Bewegungspfades des Fahrzeugs (200) die Abdeckung des Sensors (302) minimiert werden kann.The invention relates to a method (100) for minimizing coverage of a field of view of a sensor (302) of a vehicle (200), wherein the coverage of the sensor (302) can be minimized by adapting the movement path of the vehicle (200).

Description

Die vorliegende Erfindung betrifft ein Verfahren zur Minimierung einer Abdeckung eines Sichtfelds eines Sensors eines Fahrzeuges, ein Computerprogramm, ein Computersystem sowie ein Fahrzeug.The present invention relates to a method for minimizing coverage of a field of view of a sensor of a vehicle, a computer program, a computer system and a vehicle.

Videobasierte Sensoren können kaum durch andere Sensoren ausgeglichen oder ersetzt werden. Zur Aufnahme und Erkennung von Objekten, wie beispielsweise Verkehrsschildern, werden heute ausschließlich Kamerasysteme benützt. Kameras sind aus den Fahrzeugen nicht mehr wegzudenken. Viele Umgebungsdaten sind zwar bereits lokal oder in einer Cloud gespeichert, jedoch gibt es immer wieder neue Verkehrssituationen, die weder lokal noch in der Cloud abrufbar sind bzw. welche sich auch nur schwierig abspeichern lassen, wie beispielsweise ein Fußgänger, der eine Straße überquert. Zudem können sich teilweise auch Verkehrssituationen nicht abrufen lassen, da aufgrund einer Überlastung des Netzwerks oder fehlender Konnektivität die Informationen für ein Fahrzeug nicht zugänglich sind.Video-based sensors can hardly be compensated for or replaced by other sensors. Only camera systems are used today to record and recognize objects such as traffic signs. Cameras have become indispensable in vehicles. Much environmental data is already stored locally or in a cloud, but there are always new traffic situations that cannot be accessed locally or in the cloud or that are difficult to save, such as a pedestrian crossing a street. In addition, some traffic situations cannot be called up because the information is not accessible to a vehicle due to network overload or a lack of connectivity.

Offenbarung der ErfindungDisclosure of the invention

Mit Ausführungsformen der Erfindung kann in vorteilhafter Weise ein verbessertes Verfahren zur Minimierung einer Abdeckung eines Sichtfelds eines Sensors eines Fahrzeuges bereitgestellt werden.With embodiments of the invention, an improved method for minimizing coverage of a field of view of a sensor of a vehicle can be provided in an advantageous manner.

Die Erfindung ist in den unabhängigen Ansprüchen definiert. Vorteilhafte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen und der nachfolgenden Beschreibung.The invention is defined in the independent claims. Advantageous developments of the invention emerge from the dependent claims and the following description.

Ein erster Aspekt betrifft ein Verfahren zur Minimierung einer Abdeckung eines Sichtfelds eines Sensors eines Fahrzeuges, welches die Schritte aufweist:

  • - Ermitteln eines ersten Sichtfelds des Sensors zu einem ersten Zeitpunkt,
  • - Ermitteln eines zweiten Sichtfelds des Sensors zu einem zweiten Zeitpunkt,
  • - Detektieren einer ersten Abdeckung des ersten Sichtfelds,
  • - Detektieren einer zweiten Abdeckung des zweiten Sichtfelds,
  • - Berechnen eines Verdeckungsbereichs, welcher durch die erste Abdeckung im ersten Sichtfeld des Sensors und auch durch die zweite Abdeckung des zweiten Sichtfelds des Sensors verdeckt ist,
  • - Ermitteln einer Größe des Verdeckungsbereichs,
  • - Vergleichen der Größe des Verdeckungsbereichs mit einem vorbestimmten Schwellwert der Größe des Verdeckungsbereichs,
  • - Berechnen einer Anpassung eines Bewegungspfads des Fahrzeuges, wenn die Größe des Verdeckungsbereichs den vorbestimmten Schwellwert erreicht und/oder überschreitet,
  • - Anpassen des berechneten Bewegungspfads, wenn durch die Anpassung des Bewegungspfads die Größe des Verdeckungsbereichs reduziert wird.
A first aspect relates to a method for minimizing coverage of a field of view of a sensor of a vehicle, which has the following steps:
  • - determining a first field of view of the sensor at a first point in time,
  • - Determination of a second field of view of the sensor at a second point in time,
  • - Detecting a first coverage of the first field of view,
  • - Detecting a second coverage of the second field of view,
  • - Calculating a concealment area which is covered by the first cover in the first field of view of the sensor and also by the second cover of the second field of view of the sensor,
  • - determining a size of the concealment area,
  • - comparing the size of the concealment area with a predetermined threshold value of the size of the concealment area,
  • - Calculating an adaptation of a movement path of the vehicle if the size of the concealment area reaches and / or exceeds the predetermined threshold value,
  • - Adjustment of the calculated movement path if the size of the obscuration area is reduced by adjusting the movement path.

Der Vorteil dieser Ausführungsform ist, dass Objekte, wie beispielsweise Verkehrszeichen, welche nicht mittels einer hochgenauen Karte darstellbar bzw. mithilfe einer Onlineverbindung vorhersehbar sind, durch eine Kamera in einem Fahrzeug detektiert werden können. Ferner können dabei beispielsweise wandernde Verkehrszeichen, wie ein Verkehrszeichen, welches sich auf einem Anhänger befindet und einem Lastzug folgt, derart detektiert werden, dass die Größe der Verdeckung des Sensors reduziert wird. Somit kann auch ein Grad der Automatisierung eines Fahrzeuges erhöht werden, da durch die verbesserte Detektion der Umgebung durch das Verfahren der Grad der Automatisierung gesteigert werden kann.The advantage of this embodiment is that objects, such as traffic signs, which cannot be represented by means of a high-precision map or foreseen by means of an online connection, can be detected by a camera in a vehicle. Furthermore, for example, moving traffic signs, such as a traffic sign which is located on a trailer and follows a truck, can be detected in such a way that the size of the obscuration of the sensor is reduced. Thus, the degree of automation of a vehicle can also be increased, since the method can increase the degree of automation due to the improved detection of the surroundings.

Gemäß dem ersten Aspekt wird ein erster Sichtbereich des Sensors zu einem ersten Zeitpunkt ermittelt, berechnet und/oder detektiert. Dabei kann der Zeitpunkt zur Ermittlung des ersten Sichtbereichs in Abhängigkeit eines Bewegungspfads, welcher dem Sensor bekannt sein kann, des Fahrzeugs gewählt werden. Bei dem Sichtfeld des Sensors handelt es sich um einen Erfassungsbereich des Sensors, welches durch den Sensor ausgebildet wird. In anderen Worten kann ein erstes Sichtfelddatenelement empfangen werden, welches repräsentativ für ein erstes Sichtfeld zu einem ersten Zeitpunkt ist. Ferner wird ein zweites Sichtfeld des Sensors zu einem zweiten Zeitpunkt ermittelt, berechnet und/oder detektiert. Ferner kann dabei ein zweites Sichtfelddatenelement bereitgestellt werden, welches repräsentativ für ein zweites Sichtfeld ist. Zudem wird eine erste Abdeckung, Verdeckung und/oder Verdeckung des Sensors des ersten Sichtfelds detektiert, berechnet, geschätzt und/oder ermittelt. In anderen Worten wird ein erstes Abdeckungsdatenelement erhalten bzw. bereitgestellt, welches repräsentativ für eine erste Abdeckung des Sensors zu einem ersten Zeitpunkt steht. Des Weiteren wird eine zweite Abdeckung des zweiten Sichtfelds detektiert, berechnet und/oder ermittelt. Ferner kann dabei ein zweites Abdeckdatenelement bereitgestellt und/oder ermittelt werden, welches repräsentativ für die Abdeckung des zweiten Sichtfelds zu einem zweiten Zeitpunkt steht. Aus der ersten Abdeckung im ersten Sichtfeld des Sensors und durch die zweite Abdeckung des zweiten Sichtfelds des Sensors wird ein Verdeckungsbereich berechnet, kalkuliert und/oder ermittelt. Der Verdeckungsbereich ist eine Kombination aus den Abdeckungen und den Sichtfeldern. In anderen Worten ist der Verdeckungsbereich ein Bereich, der durch die erste Abdeckung im ersten Sichtfeld des Sensors und auch durch die zweite Abdeckung des zweiten Sichtfelds des Sensors verdeckt ist, nicht auflösbar und/oder nicht erkennbar ist und somit für den Sensor verdunkelt ist und/oder nicht einsehbar ist. Ferner wird eine Größe des Verdeckungsbereichs ermittelt, berechnet und/oder abgefragt. Ferner kann die Größe des Verdeckungsbereichs einer geografischen Auflösung beschrieben werden bzw. durch die Größe der Abdeckung bzw. den ermittelten und/oder berechneten Verdeckungsbereichs. Zudem wird die Größe des Verdeckungsbereichs mit einem vorbestimmten Schwellwert, Grenzwert, Maximum und/oder Minimum der Größe des Verdeckungsbereichs verglichen, überprüft und/oder gegengeprüft. Ferner wird dabei eine Anpassung eines Bewegungspfads des Fahrzeuges berechnet und/oder ermittelt, wenn die Größe des Verdeckungsbereichs den vorbestimmten Schwellwert erreicht und/oder überschreitet. Ferner wird der berechnete Bewegungspfad angepasst, abgeändert und/oder neu ermittelt, wenn durch die Anpassung des Bewegungspfads die Größe des Verdeckungsbereichs reduziert, minimiert und/oder verringert wird. Die Anpassung des Bewegungspfads kann Beschleunigen, Bremsen und/oder ein Spurwechsel des Fahrzeuges sein. Alternativ oder ergänzend kann eine Fahrwerkseinstellung, insbesondere ein elektrisches Fahrwerk, des Fahrzeuges an den berechneten Bewegungspfad angepasst werden. Hier kann das erste Sichtfeld durch eine erste Abdeckung verdeckt sein und das zweite Sichtfeld durch eine zweite Abdeckung verdeckt sein, welche sich an einer Stelle überschneiden und somit einen Verdeckungsbereich ausbilden können. Ferner kann die Größe des Verdeckungsbereichs ermittelt werden. Wenn die Größe des Verdeckungsbereichs eine sehr geringe Größe aufweist, kann angenommen werden, dass keine wichtigen Informationen in dem Verdeckungsbereich enthalten sind. Ist die Größe des Verdeckungsbereichs größer oder gleich des vorbestimmten Schwellwerts der Größe des Verdeckungsbereichs kann dies darauf hindeuten, dass wichtige Informationen im Verdeckungsbereich zu erkennen sind. Somit werden verschiedene Szenarien geprüft bzw. berechnet, welche dazu führen können, die Größe des Verdeckungsbereichs zu reduzieren und somit weitere Informationen innerhalb des Verdeckungsbereichs erkennen zu können.According to the first aspect, a first field of view of the sensor is ascertained, calculated and / or detected at a first point in time. The point in time for determining the first field of view can be selected as a function of a movement path of the vehicle, which can be known to the sensor. The field of view of the sensor is a detection area of the sensor, which is formed by the sensor. In other words, a first field of view data element can be received which is representative of a first field of view at a first point in time. Furthermore, a second field of view of the sensor is determined, calculated and / or detected at a second point in time. Furthermore, a second field of view data element can be provided which is representative of a second field of view. In addition, a first covering, covering and / or covering of the sensor of the first field of view is detected, calculated, estimated and / or ascertained. In other words, a first coverage data element is obtained or provided which is representative of a first coverage of the sensor at a first point in time. Furthermore, a second coverage of the second field of view is detected, calculated and / or ascertained. Furthermore, a second coverage data element can be provided and / or determined, which is representative of the coverage of the second field of view at a second point in time. From the first cover in the first field of view of the sensor and through the second cover of the In the second field of view of the sensor, a concealment area is calculated, calculated and / or ascertained. The occlusion area is a combination of the covers and the fields of view. In other words, the concealment area is an area which is covered by the first cover in the first field of view of the sensor and also by the second cover of the second field of view of the sensor, cannot be resolved and / or cannot be recognized and is therefore darkened for the sensor and / or is not visible. Furthermore, a size of the concealment area is determined, calculated and / or queried. Furthermore, the size of the coverage area of a geographic resolution can be described or by the size of the coverage or the determined and / or calculated coverage area. In addition, the size of the concealment area is compared, checked and / or cross-checked with a predetermined threshold value, limit value, maximum and / or minimum of the size of the concealment area. In addition, an adaptation of a movement path of the vehicle is calculated and / or determined when the size of the concealment area reaches and / or exceeds the predetermined threshold value. Furthermore, the calculated movement path is adapted, modified and / or newly determined if the size of the concealment area is reduced, minimized and / or reduced by adapting the movement path. The adaptation of the movement path can be acceleration, braking and / or a lane change of the vehicle. Alternatively or in addition, a chassis setting, in particular an electric chassis, of the vehicle can be adapted to the calculated movement path. Here, the first field of view can be covered by a first cover and the second field of view can be covered by a second cover, which overlap at one point and can thus form a concealment area. Furthermore, the size of the concealment area can be determined. If the size of the occlusion area is very small, it can be assumed that no important information is contained in the occlusion area. If the size of the concealment area is greater than or equal to the predetermined threshold value for the size of the concealment area, this can indicate that important information can be recognized in the concealment area. Various scenarios are thus checked or calculated, which can lead to reducing the size of the concealment area and thus being able to recognize further information within the concealment area.

Gemäß einer Ausführungsform weist das Verfahren ferner den Schritt auf:

  • - Anpassen des vorbestimmten Schwellwerts der Größe des Verdeckungsbereichs an einen Grad der Automatisierung des Fahrzeuges.
According to one embodiment, the method also has the step:
  • - Adaptation of the predetermined threshold value of the size of the concealment area to a degree of automation of the vehicle.

In anderen Worten kann der vorbestimmte Schwellwert der Größe des Verdeckungsbereichs an einen Grad einer Automatisierung des Fahrzeuges angepasst, adaptiert und/oder eingestellt werden. Die Automatisierung des Fahrzeuges kann ein Level der Automatisierung des Fahrzeuges und/oder ein Level und/oder Grad eines autonom fahrenden Fahrzeuges sein. Der Vorteil dieser Ausführungsform kann sein, dass durch die korrekte Anpassung des Grads der Automatisierung des Fahrzeuges Ressourcen eingespart werden können, wenn ein hoher Grad der Automatisierung nicht benötigt wird.In other words, the predetermined threshold value of the size of the concealment area can be adapted, adapted and / or set to a degree of automation of the vehicle. The automation of the vehicle can be a level of automation of the vehicle and / or a level and / or degree of an autonomously driving vehicle. The advantage of this embodiment can be that resources can be saved by correctly adapting the degree of automation of the vehicle if a high degree of automation is not required.

Gemäß einer Ausführungsform weist das Verfahren ferner den Schritt auf:

  • - Anpassen einer Auflösung und/oder einer Reichweite des ersten Sichtfelds des Sensors und/oder des zweiten Sichtfelds des Sensors, basierend auf dem Grad der Automatisierung des Fahrzeuges.
According to one embodiment, the method also has the step:
  • - Adapting a resolution and / or a range of the first field of view of the sensor and / or of the second field of view of the sensor, based on the degree of automation of the vehicle.

In anderen Worten kann eine Auflösung der Genauigkeit und/oder eine Reichweite des ersten Sichtfeldsensors bzw. des zweiten Sichtfeldsensors basierend auf dem Grad bzw. Level der Automatisierung des Fahrzeuges angepasst, adaptiert und/oder konfiguriert werden. Beispielsweise kann die Reichweite des Sensors reduziert werden, wenn ein geringer Grad der Automatisierung des Fahrzeuges vorliegt. Andererseits kann die Auflösung, beispielsweise die Kameraauflösung des Sensors, gesteigert werden, wenn ein hoher Grad der Automatisierung vorhanden ist. Diese Ausführungsform kann den Vorteil aufweisen, dass die Langlebigkeit der Sensorik verbessert werden kann, da diese nicht permanent laufen muss.In other words, a resolution of the accuracy and / or a range of the first field of view sensor or of the second field of view sensor can be adapted, adapted and / or configured based on the degree or level of automation of the vehicle. For example, the range of the sensor can be reduced if there is a low degree of automation in the vehicle. On the other hand, the resolution, for example the camera resolution of the sensor, can be increased if there is a high degree of automation. This embodiment can have the advantage that the longevity of the sensor system can be improved, since it does not have to run permanently.

Gemäß einer Ausführungsform weist das Verfahren ferner die Schritte auf:

  • - Prüfen, ob der berechnete Bewegungspfad innerhalb eines zulässigen Bereichs des Bewegungspfads ist,
  • - Ausgeben eines Fehlersignals, wenn der berechnete Bewegungspfad die zumindest eine Begrenzung des Bewegungspfads überschreitet, und/oder
  • - Aufheben des Grads der Automatisierung des Fahrzeuges, basierend auf dem Fehlersignal.
According to one embodiment, the method further comprises the steps:
  • - Check whether the calculated movement path is within a permissible range of the movement path,
  • - Outputting an error signal if the calculated movement path exceeds the at least one limit of the movement path, and / or
  • - Override the degree of automation of the vehicle based on the error signal.

In anderen Worten wird der berechnete Bewegungspfad innerhalb eines zulässigen Bereichs des Bewegungspfads geprüft und/oder ermittelt. Ferner kann ein Fehlersignal ausgegeben, berechnet und/oder bereitgestellt werden, wenn der berechnete Bewegungspfad die zumindest eine Begrenzung des Bewegungspfads überschreitet, übertritt und/oder verletzt. Ferner kann der Grad der Automatisierung des Fahrzeuges, basierend auf dem Fehlersignal, reduziert, minimiert, aufgehoben, aufgelöst und/oder beendet werden. Bei dem zulässigen Bereich kann es sich beispielsweise um einen Richtlinienkatalog handeln, wie beispielsweise die Straßenverkehrsordnung, welche das Fahrzeug in seiner Bewegungsfreiheit beschränkt. Ferner kann es sich bei dem zulässigen Bereich um die Umgebung des Fahrzeuges handeln, wie beispielsweise die Vorgabe einer Spurbegrenzung durch eine Fahrbahn. In einer beispielhaften Ausführungsform wird ein Bewegungspfad berechnet, welcher eine Geschwindigkeit von 140 hm/h erfordert. Die zulässige Maximalgeschwindigkeit in diesem Streckenabschnitt ist jedoch 130 km/h. Somit wird ein Fehlersignal ausgegeben, da der berechnete Bewegungspfad von 140 km/h die Begrenzung des Bewegungspfads von 130 km/h überschreitet. Somit kann der Grad der Automatisierung des Fahrzeuges reduziert werden, sodass der Fahrer selbst die Geschwindigkeit wählen kann und/oder die Automatisierung des Fahrzeuges aufgehoben werden, sodass der Fahrer die vollständige Kontrolle über das Fahrzeug erlangt.In other words, the calculated movement path is checked and / or determined within a permissible range of the movement path. Furthermore, an error signal can be output, calculated and / or provided if the calculated movement path exceeds, crosses and / or violates the at least one limitation of the movement path. Furthermore, the degree of automation of the vehicle, based on the Error signal, reduced, minimized, canceled, resolved and / or terminated. The permissible area can be, for example, a catalog of guidelines, such as the road traffic regulations, which restrict the freedom of movement of the vehicle. Furthermore, the permissible area can be the surroundings of the vehicle, such as, for example, the specification of a lane delimitation by a roadway. In an exemplary embodiment, a movement path is calculated which requires a speed of 140 hm / h. However, the maximum permitted speed in this section of the route is 130 km / h. An error signal is thus output because the calculated movement path of 140 km / h exceeds the limitation of the movement path of 130 km / h. The degree of automation of the vehicle can thus be reduced so that the driver can choose the speed himself and / or the automation of the vehicle can be canceled so that the driver has complete control over the vehicle.

Gemäß einer Ausführungsform ist die Anpassung des Bewegungspfads des Fahrzeuges eine Veränderung der Geschwindigkeit des Fahrzeuges und/oder ein Spurwechsel des Fahrzeuges. In anderen Worten kann die Anpassung des Bewegungspfads des Fahrzeuges mittels einer Veränderung der Geschwindigkeit des Fahrzeuges und/oder einem Spurwechsel erfolgen. Dabei kann die Veränderung der Geschwindigkeit des Fahrzeuges ein Bremsen, Beschleunigen und/oder ein Geschwindigkeitshalten sein. Bei einem Spurwechsel kann es sich um einen Wechsel der Fahrspur des Fahrzeuges handeln, beispielsweise um eine, zwei oder eine Vielzahl von Fahrbahnen.According to one embodiment, the adaptation of the movement path of the vehicle is a change in the speed of the vehicle and / or a lane change of the vehicle. In other words, the movement path of the vehicle can be adapted by changing the speed of the vehicle and / or changing lanes. The change in the speed of the vehicle can be braking, accelerating and / or maintaining speed. A lane change can be a change in the lane of the vehicle, for example one, two or a large number of lanes.

Gemäß einer Ausführungsform kann das Verfahren die Schritte aufweisen:

  • - Erkennen zumindest eines Objekts, einer Position des Objekts und/oder einer Art des Objekts im ersten Sichtfeld des Sensors und/oder im zweiten Sichtfeld des Sensors, wobei das zumindest eine Objekt zumindest einen Teil der ersten Abdeckung im ersten Sichtfeld und/oder zumindest einen Teil der zweiten Abdeckung im zweiten Sichtfeld ausbildet,
  • - Ermitteln des Verdeckungsbereichs, zudem basierend auf der erkannten Position und/oder der Art des Objekts im ersten Sichtfeld des Sensors und/oder im zweiten Sichtfeld des Sensors.
According to one embodiment, the method can have the steps:
  • - Detection of at least one object, a position of the object and / or a type of object in the first field of view of the sensor and / or in the second field of view of the sensor, the at least one object at least part of the first cover in the first field of view and / or at least one Forms part of the second cover in the second field of view,
  • - Determination of the concealment area, also based on the detected position and / or the type of object in the first field of view of the sensor and / or in the second field of view of the sensor.

In anderen Worten kann zumindest ein Objekt erkannt, detektiert und/oder ermittelt werden. Ferner kann dabei eine Position des Objekts und/oder eine Art des Objekts im ersten Sichtfeld des Sensors und/oder im zweiten Sichtfeld des Sensors erkannt, detektiert und/oder ermittelt werden. Bei einer Position des Objekts kann es sich beispielsweise um eine geografische Position in Bezug zu dem Fahrzeug handeln. Ferner kann eine Art des Objekts ermittelt werden, welches beispielsweise ein weiteres Fahrzeug, eine Baustelle, ein Straßenwartungsfahrzeug und/oder jede andere Art von Hindernis im Umfeld sein kann. Ferner kann die Abdeckung im ersten Sichtfeld und/oder im zweiten Sichtfeld teilweise durch das Objekt ausgebildet sein, welches erkannt wurde. Ferner kann die Abdeckung auch aus einer Kombination einer Abdeckung und dem erkannten Objekt bestehen. Ferner kann der Verdeckungsbereich zudem basierend auf der erkannten Position und/oder der Art des Objekts im ersten Sichtfeld des Sensors und/oder im zweiten Sichtfeld des Sensors ermittelt, berechnet und/oder bestimmt werden. Beispielsweise kann das Objekt ein Tieflader sein, welcher zwar teilweise eine Abdeckung hervorruft, jedoch zudem Bereiche aufweist, in welchen beispielsweise ein Verkehrsschild erkannt werden kann.In other words, at least one object can be recognized, detected and / or ascertained. Furthermore, a position of the object and / or a type of object in the first field of view of the sensor and / or in the second field of view of the sensor can be recognized, detected and / or ascertained. A position of the object can be, for example, a geographical position in relation to the vehicle. Furthermore, a type of object can be determined, which can be, for example, another vehicle, a construction site, a road maintenance vehicle and / or any other type of obstacle in the vicinity. Furthermore, the cover in the first field of view and / or in the second field of view can be partially formed by the object which was recognized. Furthermore, the cover can also consist of a combination of a cover and the recognized object. Furthermore, the concealment area can also be ascertained, calculated and / or determined based on the recognized position and / or the type of object in the first field of view of the sensor and / or in the second field of view of the sensor. For example, the object can be a low-loader truck which, although it partially creates a cover, also has areas in which, for example, a traffic sign can be recognized.

Gemäß einer Ausführungsform weist das Verfahren ferner auf:

  • - Berechnen eines Bewegungspfads des erkannten Objekts, basierend auf einer ersten Position des erkannten Objekts im ersten Sichtfeld des Sensors und basierend auf einer zweiten Position des erkannten Objekts im zweiten Sichtfeld des Sensors,
  • - Ermitteln des Verdeckungsbereichs, basierend auf dem berechneten Bewegungspfad des erkannten Objekts.
According to one embodiment, the method further comprises:
  • Calculating a movement path of the recognized object based on a first position of the recognized object in the first field of view of the sensor and based on a second position of the recognized object in the second field of view of the sensor,
  • - Determination of the concealment area based on the calculated movement path of the recognized object.

In anderen Worten kann der Bewegungspfad des erkannten Objekts, basierend auf einer ersten Position des erkannten Objekts im ersten Sichtfeld des Sensors und basierend auf einer zweiten Position des erkannten Objekts im zweiten Sichtfeld des Sensors, berechnet, ermittelt oder bestimmt werden. Alternativ oder ergänzend kann ein linearer Bewegungspfad berechnet werden, basierend auf der ersten Position des erkannten Objekts im ersten Sichtfeld des Sensors und basierend auf einer zweiten Position des erkannten Objekts im zweiten Sichtfeld des Sensors. Beispielsweise kann der Bewegungspfad anhand einer Position x, y des erkannten Objekts zu einem ersten Zeitpunkt und einer weiteren Position des erkannten Objekts an der Position x', y' zu einem zweiten Zeitpunkt ermittelt werden, indem die Differenz zwischen den beiden Koordinaten und den beiden Zeitpunkten gebildet wird. Somit kann der Verdeckungsbereich, basierend auf dem berechneten Bewegungspfad des erkannten Objekts ermittelt, berechnet und/oder bestimmt werden. Dies kann wie beispielhaft dargestellt mittels einer vergleichenden Analyse zwischen der ersten Position des erkannten Objekts und der zweiten Position des erkannten Objekts erfolgen.In other words, the movement path of the recognized object can be calculated, ascertained or determined based on a first position of the recognized object in the first field of view of the sensor and based on a second position of the recognized object in the second field of view of the sensor. Alternatively or additionally, a linear movement path can be calculated based on the first position of the detected object in the first field of view of the sensor and based on a second position of the detected object in the second field of view of the sensor. For example, the movement path can be determined based on a position x, y of the recognized object at a first point in time and a further position of the recognized object at position x ', y' at a second point in time by calculating the difference between the two coordinates and the two points in time is formed. The concealment area can thus be ascertained, calculated and / or determined based on the calculated movement path of the recognized object. As shown by way of example, this can take place by means of a comparative analysis between the first position of the recognized object and the second position of the recognized object.

Gemäß einer Ausführungsform weist das Fahren ferner die Schritte auf:

  • - Ermitteln eines dritten Sichtfelds des Sensors zu einem dritten Zeitpunkt,
  • - Erkennen des zumindest einen Objekts und einer dritten Position des Objekts im dritten Sichtfeld des Sensors,
  • - Ermitteln einer dynamischen Bewegung im berechneten Bewegungspfad des erkannten Objekts, basierend auf der ersten Position, der zweiten Position und der dritten Position des Objekts.
According to one embodiment, the driving further comprises the steps:
  • - Determination of a third field of view of the sensor at a third point in time,
  • - Detecting the at least one object and a third position of the object in the third field of view of the sensor,
  • Determining a dynamic movement in the calculated movement path of the recognized object, based on the first position, the second position and the third position of the object.

In anderen Worten kann ein drittes Sichtfeld des Sensors zu einem dritten Zeitpunkt ermittelt, bestimmt und/oder detektiert werden. Dabei kann das zumindest eine Objekt an einer dritten Position des Objekts im dritten Sichtfeld des Sensors erkannt, ermittelt und/oder bestimmt werden. Ferner kann dabei eine dynamische Bewegung im berechneten Bewegungspfad des erkannten Objekts, basierend auf der ersten, der zweiten Position und der dritten Position des Objekts ermittelt, berechnet und/oder bestimmt werden. Dabei kann es sich bei der dynamischen Bewegung um einen Beschleunigungs- bzw. Bremsvorgang oder jede andere dynamische Fahrveränderung des Fahrzeuges handeln. Beispielsweise kann ein Objekt in einer ersten Position zu einem ersten Zeitpunkt, einer zweiten Position zu einem zweiten Zeitpunkt und einer dritten Position zu einem dritten Zeitpunkt detektiert werden, welches durch die Positionen x, y, x', y' und x'', y'' zum jeweiligen Zeitpunkt beschrieben werden kann. Durch eine vergleichende Analyse der drei Positionen kann die dynamische Bewegung des Fahrzeuges bestimmt werden.In other words, a third field of view of the sensor can be ascertained, determined and / or detected at a third point in time. The at least one object can be recognized, ascertained and / or determined at a third position of the object in the third field of view of the sensor. Furthermore, a dynamic movement in the calculated movement path of the recognized object can be ascertained, calculated and / or determined based on the first, second and third positions of the object. The dynamic movement can be an acceleration or braking process or any other dynamic driving change of the vehicle. For example, an object can be detected in a first position at a first point in time, a second position at a second point in time and a third position at a third point in time, which is determined by the positions x, y, x ', y' and x ″, y '' can be described at the respective point in time. The dynamic movement of the vehicle can be determined through a comparative analysis of the three positions.

Gemäß einer Ausführungsform weist das Verfahren ferner die Schritte auf:

  • - Abrufen eines Signals, welches zumindest teilweise den ermittelten Verdeckungsbereich beschreibt,
  • - Reduzieren der Größe des Verdeckungsbereichs, basierend auf dem abgerufenen Signal.
According to one embodiment, the method further comprises the steps:
  • - Retrieval of a signal which at least partially describes the detected coverage area,
  • - Reducing the size of the occlusion area based on the retrieved signal.

In anderen Worten kann ein Signal bzw. ein Signaldatenelement, welches repräsentativ für ein Signal steht, welches zumindest teilweise den ermittelten Verdeckungsbereich beschreibt, abgerufen, heruntergeladen und/oder bereitgestellt werden. Ferner kann dabei die Größe des Verdeckungsbereichs, basierend auf dem abgerufenen Signal bzw. dem Signaldatenelement reduziert, minimiert und/oder aufgelöst werden. Beispielsweise handelt es sich bei dem Signal um eine Information, welche aus einer hochauflösenden GPS-Karte abgerufen werden kann, die mit einer Geschwindigkeitsbegrenzung verknüpft ist. Somit kann beispielsweise die Größe des Verdeckungsbereichs reduziert werden, da bereits die Höchstgeschwindigkeit im Streckenabschnitt mittels des Signals ermittelt werden konnte.In other words, a signal or a signal data element which is representative of a signal which at least partially describes the determined occlusion area can be called up, downloaded and / or provided. Furthermore, the size of the concealment area can be reduced, minimized and / or dissolved based on the retrieved signal or the signal data element. For example, the signal is information that can be called up from a high-resolution GPS map that is linked to a speed limit. Thus, for example, the size of the concealment area can be reduced, since the maximum speed in the route section could already be determined by means of the signal.

In einer Ausführungsform weist der Verdeckungsbereich zumindest einen ersten Teilbereich und einen zweiten Teilbereich auf. Ferner weist dabei das Verfahren die Schritte auf:

  • - Priorisieren des ersten Teilbereichs oder des zweiten Teilbereichs des Verdeckungsbereichs,
  • - Anpassen des berechneten Bewegungspfads basierend auf dem priorisierenden Teilbereich der Abdeckung des Sichtfelds des Sensors.
In one embodiment, the concealment area has at least a first partial area and a second partial area. The method also has the following steps:
  • - Prioritizing the first sub-area or the second sub-area of the concealment area,
  • Adaptation of the calculated movement path based on the prioritizing sub-area of the coverage of the field of view of the sensor.

In anderen Worten kann der Verdeckungsbereich zumindest einen ersten Teilbereich und einen zweiten Teilbereich aufweisen. Dies kann insbesondere durch eine Vielzahl von Fahrzeugen, welche sich im Sichtbereich des Sensors befinden, hervorgerufen werden.In other words, the concealment area can have at least a first partial area and a second partial area. This can be caused in particular by a large number of vehicles which are in the field of vision of the sensor.

Ferner kann dabei der erste Teilbereich oder der zweite Teilbereich des Verdeckungsbereichs priorisiert, bestimmt und/oder in einer Wichtigkeit erhöht werden. Ferner kann dabei die Größe des ersten Teilbereichs und/oder eine Größe des zweiten Teilbereichs berechnet werden. Ferner kann dabei die Größe des ersten Teilbereichs und/oder des zweiten Teilbereichs gegen einen vorbestimmten Schwellwert verglichen werden. Für den Fall, dass die Größe des ersten Teilbereichs oder des zweiten Teilbereichs den vorbestimmten Grenzwert erreicht und/oder überschreitet, kann der erste und/oder der zweite Teilbereich vernachlässigt werden. Dies kann insbesondere bei der Detektion von Straßenschildern hilfreich sein, da, wenn die Größe des ersten und/oder des zweiten Teilbereichs kleiner als beispielsweise 10 cm ist, kann sich in diesem Bereich kein Straßenschild befinden. Ferner kann dabei der berechnete Bewegungspfad des Fahrzeuges basierend auf dem priorisierten Teilbereich der Abdeckung des Sichtfelds des Sensors angepasst, adaptiert und angeglichen werden. Beispielhafterweise wurde im ersten Teilbereich des Verdeckungsbereichs ein Teil eines Straßenschildes detektiert, sodass der Bewegungspfad derart angepasst wird, dass das Straßenschild vollständig für den Sensor des Fahrzeuges sichtbar wird.Furthermore, the first sub-area or the second sub-area of the concealment area can be prioritized, determined and / or increased in importance. Furthermore, the size of the first sub-area and / or a size of the second sub-area can be calculated. Furthermore, the size of the first sub-area and / or the second sub-area can be compared against a predetermined threshold value. In the event that the size of the first sub-area or the second sub-area reaches and / or exceeds the predetermined limit value, the first and / or the second sub-area can be neglected. This can be particularly helpful when detecting street signs, since if the size of the first and / or the second partial area is smaller than, for example, 10 cm, there can be no street sign in this area. Furthermore, the calculated movement path of the vehicle can be adapted, adapted and matched based on the prioritized sub-area of the coverage of the field of view of the sensor. For example, a part of a road sign was detected in the first sub-area of the concealment area, so that the movement path is adapted in such a way that the road sign is completely visible to the sensor of the vehicle.

Gemäß einer Ausführungsform weißt das Priorisieren des ersten Teilbereichs oder des zweiten Teilbereichs die Schritte auf:

  • - Erkennen zumindest eines Teils eines Informationsträgers, insbesondere an einem Randverdeckungsbereich im ersten Teilbereich und/oder zweiten Teilbereich,
  • - Priorisieren des ersten Teilbereichs oder des zweiten Teilbereichs basierend darauf, in welchem Teilbereich sich der zumindest teilweise erkannte Informationsträger befindet.
According to one embodiment, you know Prioritizing the first sub-area or the second sub-area the steps to:
  • - Detection of at least a part of an information carrier, in particular at an edge concealment area in the first sub-area and / or second sub-area,
  • Prioritizing the first sub-area or the second sub-area based on the sub-area in which the at least partially recognized information carrier is located.

In anderen Worten kann ein Teil eines Informationsträgers, insbesondere an einem Rand des Verdeckungsbereichs im ersten Teilbereich und/oder im zweiten Teilbereich erkannt, ermittelt und/oder identifiziert werden. Ferner kann dabei der erste Teilbereich oder der zweite Teilbereich basierend darauf, in welchem Teilbereich sich der zumindest teilweise erkannte Informationsträger befindet, priorisiert, bevorzugt und/oder mit einer hohen Wichtigkeit versehen werden. Beispielsweise wird im ersten Teilbereich ein Teil eines Informationsträgers, wie beispielsweise ein Straßenverkehrsschild, erkannt. Somit wird der erste Teilbereich priorisiert, um den Verdeckungsbereich insbesondere an der Position, wo der Teil des Informationsträgers bzw. des Straßenschilds erkannt wurde, für den Sensor bzw. das Fahrzeug sichtbar zu machen.In other words, a part of an information carrier, in particular at an edge of the concealment area, can be recognized, determined and / or identified in the first sub-area and / or in the second sub-area. Furthermore, the first sub-area or the second sub-area can be prioritized, preferred and / or given a high level of importance based on the sub-area in which the at least partially recognized information carrier is located. For example, part of an information carrier, such as a road traffic sign, is recognized in the first sub-area. The first sub-area is thus prioritized in order to make the concealment area visible to the sensor or the vehicle, in particular at the position where the part of the information carrier or the road sign was recognized.

Gemäß einer Ausführungsform weist das Verfahren die Schritte auf:

  • - Ermitteln einer Verdeckungsbereichsrate des ersten Sichtfelds des Sensors und/oder des zweiten Sichtfelds des Sensors über einen vorbestimmten Zeitraum,
  • - Vergleichen der ermittelten Verdeckungsbereichsrate mit einem vorbestimmten Grenzwert der Verdeckungsbereichsrate,
  • - Anpassen des berechneten Bewegungspfads, wenn der vorbestimmte Grenzwert der Verdeckungsbereichsrate erreicht und oder überschritten wird.
According to one embodiment, the method has the steps:
  • - Determination of a coverage area rate of the first field of view of the sensor and / or of the second field of view of the sensor over a predetermined period of time,
  • - comparing the determined coverage area rate with a predetermined limit value of the coverage area rate,
  • Adaptation of the calculated movement path if the predetermined limit value of the occlusion area rate is reached and / or exceeded.

In anderen Worten kann eine Verdeckungsbereichsrate des ersten Sichtfelds des Sensors und/oder des zweiten Sichtfelds des Sensors über einen vorbestimmten Zeitraum ermittelt, berechnet und/oder detektiert werden. Bei einer Verdeckungsbereichsrate handelt es sich um das Verhältnis zwischen einer ersten Abdeckung im ersten Sichtfeld und/oder einer zweiten Abdeckung des zweiten Sichtfelds des Sensors über einen vorbestimmten Zeitraum. In anderen Worten handelt es sich bei der Verdeckungsbereichsrate um einen Grad der Abdeckung des Sensors über einen vorbestimmten Zeitraum. Ferner kann die Verdeckungsbereichsrate mit einem vorbestimmten Grenzwert der Verdeckungsbereichsrate verglichen, gegenübergestellt und/oder eine vergleichende Analyse durchgeführt werden. Beispielhafterweise beschreibt der vorbestimmte Grenzwert der Verdeckungsbereichsrate einen Wert des Grads der Abdeckung des Sichtfelds des Sensors, ab dem ein sicheres Fahren in einem hochautomatisierten Fahrzeug eventuell nicht mehr möglich sein könnte. Ferner kann der berechnete Bewegungspfad angepasst, optimiert und/oder geändert werden, wenn der vorbestimmte Grenzwert der Verdeckungsbereichsrate erreicht oder überschritten wird. Beispielsweise weist der vorbestimmte Grenzwert der Verdeckungsbereichsrate einen Maximalwert von 10 Prozent auf. Die Abdeckung des Sichtfelds des Sensors beträgt über den vorbestimmten Zeitraum jedoch 12 Prozent. Somit kann der berechnete Bewegungspfad angepasst werden, sodass der Grad der Abdeckung unter den vorbestimmten Grenzwert von 10 Prozent fällt.In other words, a coverage area rate of the first field of view of the sensor and / or of the second field of view of the sensor can be ascertained, calculated and / or detected over a predetermined period of time. A coverage area rate is the ratio between a first coverage in the first field of view and / or a second coverage of the second field of view of the sensor over a predetermined period of time. In other words, the coverage area rate is a degree of coverage of the sensor over a predetermined period of time. Furthermore, the concealment area rate can be compared with a predetermined limit value of the concealment area rate, contrasted and / or a comparative analysis can be carried out. For example, the predetermined limit value of the coverage area rate describes a value of the degree of coverage of the field of view of the sensor, from which safe driving in a highly automated vehicle may no longer be possible. Furthermore, the calculated movement path can be adapted, optimized and / or changed if the predetermined limit value of the occlusion area rate is reached or exceeded. For example, the predetermined limit value of the occlusion area rate has a maximum value of 10 percent. However, the coverage of the field of view of the sensor is 12 percent over the predetermined period of time. The calculated movement path can thus be adapted so that the degree of coverage falls below the predetermined limit value of 10 percent.

Beispielsweise kann der Sensor des Fahrzeugs das Umfeld bzw. das durch den Sensor ausgebildete Sichtfeld (z. B. rechter Fahrbahnrand) aufzeichnen und protokollieren, um dann bei verdeckten Bereichen das Fahrverhalten anpassen zu können, um die verdeckten und/oder nicht erkennbare Bereiche des Sichtfelds noch zu erfassen. Dabei kann das Verfahren berechnen, welche Sichtprobleme in dem bevorstehenden Fahrverlauf entstehen werden. Somit kann das Fahrverhalten des Fahrzeugs im Hinblick auf die Verbesserung der Umfelderkennung optimiert bzw. gesteuert und/oder geregelt werden. Im Idealfall kann dabei eine lückenlose Erkennung des Umfeldes entstehen (z. B. eine lückenlose Erkennung des rechten Fahrbahnrandes). Der Fahrbetrieb auf Autobahnen kann ein Anwendungsfeld des hochautomatisierten Fahrens darstellen. Mittels des Verfahrens kann die Sicherheit der Insassen erhöht werden. Zudem kann die Vertrauenswürdigkeit des automatisierten Fahrens erhöht werden und eine erweiterte Lösungspalette in Grenzsituationen bereitgestellt werden. Beispielsweise kann das Verfahren dazu beitragen die Güte der Ausführung von Software und/ oder Kamera-basierten Anwendungen (z. B. Automatisiertes Fahren) zu erhöhen, insbesondere ohne finanziellen Mehraufwand. Mit dem Verfahren kann die Zuverlässigkeit des automatisierten Fahrens verbessert werden, weil es nicht notwendig ist, dass eine Online-Verbindung besteht. Somit kann die Nutzung der Sensoren des Fahrzeugs und die verwendeten Algorithmen verbessert werden. Mittels des Verfahrens können „unsichtbare“ Objekte sichtbar gemacht werden können resp. in das Sichtfeld der Kamera gelangen. Dabei kann das Verfahren zuerst einen (oder auch mehrere) Bereiche definieren, welcher beobachtet bzw. in welchem Objekte gesucht und erkannt werden sollen. Im Folgenden wird das Beispiel für eine Kamera bzw. für einen optischen Sensor des Fahrzeugs exemplarisch beschrieben. Am Beispiel einer deutschen Bundesautobahn könnte dies bspw. der linke oder der rechte Fahrbahnrand als auch etwaige Bereiche oberhalb der Fahrbahn (Schilderbrücken) sein. Je nach Automatisierungslevel (Society of Automotive Engineers (SAE) Level L1, L2, L3 L4 oder L5) kann auch die Wertigkeit der Umgebungsbereiche variieren. Je nach Fahrsituation (z. B. SAE Automatisierungsgrad L1-L5, derzeitige Aufmerksamkeitsspanne des Fahrers, Geschwindigkeit des Fahrzeugs, erforderliche Reaktionszeit, Konnektivität-Status, Car2Car-Kommunikationsabdeckung und/oder ähnliches) kann bewertet werden wieviel vom jeweiligen Umgebungsbereich klar erkannt werden soll. 0% kann bedeuten das keine Umgebungshinweise (Schilder, Hinweise etc.) erkannt werden müssen, weil das Fahrzeug den Sensoren (intern + extern) vollständig vertraut (bzw. die Informationen würden ausreichen, weil der Fahrer im Moment die Kontrolle über das Fahrzeug hat oder das Fahrzeug ferngesteuert auf definierten Strecken unterwegs ist) . 100% kann bedeuten, dass jeder Umgebungs- und Verkehrshinweis gesehen werden muss (es kann natürlich auch weitere Zwischenbereiche zwischen 0 und 100 % geben).For example, the sensor of the vehicle can record and log the surroundings or the field of view formed by the sensor (e.g. the right edge of the road) in order to then be able to adapt the driving behavior in the case of covered areas to the covered and / or unrecognizable areas of the field of view yet to be captured. In doing so, the method can calculate which vision problems will arise in the upcoming course of the journey. The driving behavior of the vehicle can thus be optimized or controlled and / or regulated with a view to improving the recognition of the surroundings. In the ideal case, this can result in complete recognition of the surroundings (e.g. complete recognition of the right edge of the lane). Driving on motorways can represent a field of application for highly automated driving. The safety of the occupants can be increased by means of the method. In addition, the trustworthiness of automated driving can be increased and an expanded range of solutions can be provided in borderline situations. For example, the method can contribute to increasing the quality of the execution of software and / or camera-based applications (e.g. automated driving), in particular without additional financial outlay. The method can improve the reliability of automated driving because it is not necessary for there to be an online connection. The use of the vehicle's sensors and the algorithms used can thus be improved. Using the method, "invisible" objects can be made visible or. get into the field of view of the camera. The method can first define one (or also several) areas which are to be observed or in which objects are to be searched for and recognized. In the following, the example for a camera or for an optical sensor of the vehicle is described as an example. Using the example of a German federal motorway, this could be, for example, the left or right edge of the lane as well as any areas above the lane (sign gantries). Depending on the automation level (Society of Automotive Engineers (SAE) level L1, L2, L3 L4 or L5), the value of the surrounding areas can also vary. Depending on the driving situation (e.g. SAE degree of automation L1-L5, current attention span of the driver, Speed of the vehicle, required reaction time, connectivity status, Car2Car communication coverage and / or the like) can be assessed how much of the respective surrounding area should be clearly recognized. 0% can mean that no environmental information (signs, notices, etc.) has to be recognized because the vehicle fully trusts the sensors (internal + external) (or the information would be sufficient because the driver is currently in control of the vehicle or the vehicle is under remote control on defined routes). 100% can mean that every environment and traffic information must be seen (there can of course also be further intermediate ranges between 0 and 100%).

Auf Basis der Klassifizierung kann dann der ausgewählte Umgebungsbereich fortlaufend gescannt bzw. beobachtet werden. Beim Scan wird dabei bestimmt wie hoch die Abdeckung des Sichtbereichs bzw. des Sichtfelds (Kameraaufnahme) IST, SEIN WIRD und/oder WAR. IST kann bedeuten, dass ermittelt werden kann, wie des aktuelle Sichtfelds durch die Kameras abgedeckt ist. IST kann einer Momentaufnahme bzw. einem Livebild der Kamera entsprechen. IST kann ferner eine Rückmeldung geben, wieviel Prozent vom Sichtbereich klar erkannt werden sollen (was somit auch Verkehrshinweise miteinschließt).On the basis of the classification, the selected surrounding area can then be continuously scanned or observed. During the scan, it is determined how high the coverage of the field of vision or the field of vision (camera recording) IS, WILL BE and / or WAS. IST can mean that it can be determined how the current field of view is covered by the cameras. IST can correspond to a snapshot or a live image from the camera. IST can also provide feedback as to what percentage of the field of vision should be clearly recognized (which therefore also includes traffic information).

SEIN WIRD: kann eine Prognose aus IST und der prognostizierten Erkennung des Sichtbereiches für einen bestimmten Zeitraum sein, bzw. ein Sichtfeld zu einem späteren Zeitpunkt. Der Zeitraum kann eine zeitliche Achse einschließen und ist durch eine Dauer von x Sekunden definiert (bspw. die Sicht für die nächsten 10 Sekunden, oder die Sicht bis ein bestimmter Streckenpunkt erreicht ist) . Dabei kann die Prognose mit einschließen, wie sich das eigene Fahrzeug und der restliche Verkehr inkl. der Umgebung sich im Rahmen der Zeit verändern (resp. bewegen) . Das Verfahren kann für alle beweglichen als auch für alle unbeweglichen Objekte, welche das Sichtfeld des Sensors versperren, deren Bewegungsbahn in Relation zum verdeckten Sichtbereich bestimmen.BEING WILL: can be a prognosis from the ACTUAL and the prognosticated recognition of the field of vision for a certain period of time, or a field of vision at a later point in time. The period of time can include a time axis and is defined by a duration of x seconds (e.g. the view for the next 10 seconds, or the view until a certain point on the route is reached). The prognosis can include how your own vehicle and the rest of the traffic, including the surrounding area, will change (or move) over time. The method can determine their trajectory in relation to the concealed field of vision for all movable as well as for all immovable objects which block the field of view of the sensor.

WAR: kann vergangene Referenzpositionen beschreiben an denen schon vorbeigefahren wurde und die nicht mehr erkannt werden können. WAR kann aussagen, wieviel von einem bestimmten Streckenabschnitt nicht verdeckt wurde und was damit nicht mehr von den eigenen lokalen Sensoren erfasst werden kann, bzw. nicht erfasst werden konnte.WAR: can describe past reference positions which have already been passed and which can no longer be recognized. WAR can state how much of a certain section of the route has not been covered and what can therefore no longer be detected by its own local sensors or could not be detected.

Beispielsweise kann durch das Verfahren die Sicherheit eines Fahrzeugs erhöht werden; insbesondere ohne finanziellen Mehraufwand. Durch das frühzeitigere erkennen von verdeckten Objekten kann durch das beschriebene Verfahren viel schneller auf die Umwelt reagiert werden. Als Vorteil aus der Identifizierung und Erkennung von nicht-sichtbaren Objekten, insbesondere für das Sichtfeld des Sensors ergibt sich eine Verbesserung des Umfeld-Modells. Dadurch können Trajektorienplanung und Routenführung verbessert und gefährliche Situationen besser vermieden werden.For example, the method can increase the safety of a vehicle; especially without additional financial expense. The earlier detection of hidden objects means that the described method can react much more quickly to the environment. The advantage of identifying and recognizing non-visible objects, in particular for the field of view of the sensor, is an improvement in the environment model. As a result, trajectory planning and route guidance can be improved and dangerous situations can be better avoided.

Im Straßenverkehr ist es in der Regel nicht möglich immer eine hochgenaue Karte mit allen Verkehrsregeln aktuell vorzuhalten. Das beschriebene Verfahren setzt deutlich geringere Anforderungen an Kommunikation zum Backend oder zu anderen Fahrzeugen voraus und kann mit vorhandenen Implementierungen umgesetzt werden. Das Verfahren kann somit das Sicherheitsniveau steigern, ohne dass dies zwangsläufig mit höheren Herstellungskosten für die verwendete Hardware gekoppelt ist. Dieses Verfahren kann insbesondere in Form einer Software implementiert sein, die als Update oder Upgrade zu bestehender Software oder Firmware von Teilnehmern am Netzwerk vertrieben werden kann und insofern ein eigenständiges Produkt darstellen.In road traffic it is usually not possible to always have a highly accurate map with all traffic rules up-to-date. The method described requires significantly lower communication requirements with the backend or other vehicles and can be implemented with existing implementations. The method can thus increase the level of security without this necessarily being coupled with higher manufacturing costs for the hardware used. This method can in particular be implemented in the form of software that can be distributed by participants in the network as an update or upgrade to existing software or firmware and, in this respect, represent an independent product.

Das Verfahren kann mit dem Laden der Umfeld-Daten (bspw. Kartendaten) und des Bewegungspfades des eigenen Fahrzeuges beginnen. Mit diesen Daten kann das Verfahren stetig berechnen, welche maximale Sichtweite erreicht werden kann - Sichtweite bedeutet in diesem Falle das Verkehrshinweise (Ampeln, Schilder, Baustellen) bis zu einer bestimmten Entfernung erkannt werden können. Das Ergebnis dieses Schrittes kann ein Vektor aus einer Entfernung, Koordinaten, einer Zeit und/oder einer Auflösung sein. Mit dem aktuellen Bewegungspfad des Fahrzeuges kann fortlaufend bestimmt werden wieviel Zeit vergeht bis der Sichthorizont (also die aktuelle maximale Sichtweite aus aktueller Position) erreicht wird.The method can begin with loading the environment data (e.g. map data) and the movement path of the own vehicle. With this data, the process can continuously calculate the maximum visibility that can be achieved - in this case, visibility means that traffic information (traffic lights, signs, construction sites) can be recognized up to a certain distance. The result of this step can be a vector from a distance, coordinates, a time and / or a resolution. The current path of movement of the vehicle can be used to continuously determine how much time elapses until the viewing horizon (i.e. the current maximum visibility from the current position) is reached.

Dann kann das Verfahren vorschlagen, dass Daten des Automatisierungsgrades, den Fahrer-Status und bspw. auch der Geschwindigkeit mit einbezogen werden um die notwendige Sichtweite zu bestimmen. Diese muss nicht der maximalen Sichtweiten entsprechen doch umso weiter vorrausgeschaut werden kann (von der aktuellen Position) je autonomer kann das Fahrzeug fahren, je schneller kann das Fahrzeug fahren und/oder umso weniger wird der Fahrer als Überwacher verpflichtend benötigt. Für diese Sichtweite kann das theoretische Blickfeld fortlaufend bestimmt werden. Das kann bedeuten, dass das Verfahren den theoretischen und notwendigen Betrachtungsraum der Kameras (oder anderen Sensoren) bestimmt. In diesem Betrachtungsraum können Objekte identifiziert werden, die das Sichtfeld des Fahrzeuges zur optimalen Sicht einschränken. Das können Fahrzeuge sein, die zwischen dem eigenen Fahrzeug und Verkehrshinweisen stehen. Hierfür kann das Verfahren vorschlagen, die Bewegungsvektoren für diese Objekte vorherzusagen. Dabei kann es sich um ein stehendes Objekt (Baustelle) und/oder um ein sich bewegendes Objekt (Fahrzeug) handeln.The method can then suggest that data on the degree of automation, the driver status and, for example, also the speed be included in order to determine the required visibility. This does not have to correspond to the maximum visibility, but the further you can look ahead (from the current position), the more autonomously the vehicle can drive, the faster the vehicle can drive and / or the less the driver is required as a mandatory monitor. The theoretical field of view can be continuously determined for this visual range. This can mean that the procedure determines the theoretical and necessary viewing area of the cameras (or other sensors). In this viewing area, objects can be identified that restrict the vehicle's field of vision for optimal visibility. These can be vehicles that stand between your own vehicle and traffic information. For this purpose, the method can propose to predict the motion vectors for these objects. This can be a stationary object (construction site) and / or a moving object (vehicle).

Auf Basis dieser Daten kann das Verfahren vorschlagen das reelle Sichtfeld bis zur notwendigen Sichtweit zu bestimmen. Das Verfahren kann bestimmen, welche Teilbereiche der theoretischen Sichtweise ausreichend erkannt, nicht ausreichend erkannt und nicht erkannt werden.On the basis of this data, the method can propose to determine the real field of vision up to the required visual range. The method can determine which sub-areas of the theoretical point of view are sufficiently recognized, insufficiently recognized and not recognized.

Die theoretische Abbildung eines Sichtfeldes zum Zeitpunkt t kann mit dem daraus resultierenden realen Sichtfeld bzw. im Rahmen der notwendigen Sichtweite gegenübergestellt werden. Der Scan kann dabei ganz genau bestimmen, welcher Bereich, bspw. basierend auf GPS- und Zeitdaten) nicht gesehen wurde und kann zudem berechnen wie groß dieser Bereich ist. Dabei kann sich die Frage stellen ob in diesem Bereich ein Schild sein kann. Wenn bspw. nur ein Sichtbereich von 10 cm direkt am Fahrbahnrand nicht erkannt wurde dann kann sich dort auch kein genormtes Straßenschild befinden. Ist der Bereich zu klein so kann das Verfahren den zu kleinen Bereich ignorieren. Der Scan und die Deutung des Sichtbereiches können den nicht sichtbaren Bereich im IST und im Bereich SEIN WIRD markieren. Das Verfahren kann nun bestimmen, ob es Sichtlücken gibt die gar nicht oder nur mit starker Beeinflussung der aktuellen Trajektorie sichtbar gemacht werden können. Diese Sichtbereiche können dann beim Erkennungsversuch ausgeschlossen werden, können aber markiert bleiben. Nun kann optional über die Geoposition und den Zeitpunkt die Cloud (Backend, oder andere Fahrzeuge, Datenbanken) versucht werden den Bereich noch zu bestimmen. Dies kann auch dann geschehen, wenn die lokalen Daten generell vorliegen, da wie beschrieben Baustellenfahrzeuge, Mähfahrzeug, Unfälle usw. hochdynamische Ereignisse sind, die nicht in den lokalen Daten abgespeichert sind.The theoretical mapping of a field of vision at time t can be compared with the resulting real field of vision or within the scope of the necessary visual range. The scan can determine exactly which area, e.g. based on GPS and time data) was not seen and can also calculate how large this area is. The question may arise whether there can be a sign in this area. If, for example, only a field of vision of 10 cm directly on the edge of the road was not recognized, then there cannot be a standardized road sign. If the area is too small, the procedure can ignore the area that is too small. The scan and the interpretation of the field of vision can mark the non-visible area in the ACTUAL and in the ARE BECOMING AREA. The method can now determine whether there are gaps in view that cannot be made visible at all or only with a strong influence on the current trajectory. These areas of view can then be excluded from the detection attempt, but can remain marked. Now, optionally, the cloud (backend, or other vehicles, databases) can use the geoposition and the time to try to determine the area. This can also happen when the local data is generally available, since, as described, construction site vehicles, mowing vehicles, accidents, etc. are highly dynamic events that are not stored in the local data.

Das Verfahren kann dann versuchen die Sichtlücken zu schließen. Zuerst kann bewertet werden, welche Lücke zuerst „sichtbar“ gemacht werden sollte. Ein Faktor kann hierbei sein, dass der Bereich gleich aus dem Sichtbereich der Sensoren verschwindet, als auch, dass ein Verkehrshinweis teilweise gesichtet wurde. Nun kann das Verfahren pro Sichtlücke bestimmen, wie die Trajektorie des Fahrzeuges angepasst wird, sodass damit die Sichtlücken geschlossen werden können; stets unter Berücksichtigung der übergeordneten bestehenden Trajektorie.The process can then try to close the gaps in view. First of all, it can be assessed which gap should be made "visible" first. One factor here can be that the area immediately disappears from the field of view of the sensors, as well as that a traffic notice was partially seen. The method can now determine how the trajectory of the vehicle is adapted for each viewing gap so that the viewing gaps can be closed; always taking into account the higher-level existing trajectory.

Das Verfahren kann nun bestimmen, welche Änderungen notwendig sind um die jeweiligen Sichtbereiche zu erkennen. Dabei kann die Priorität der Sichtbereiche bestimmt werden sowie auch der Eingriff in die evtl. bestehende Trajektorie bzw. den Fahrmodus. Das Verfahren kann zudem prüfen ob das Fahrverhalten (Fahrstrategie, Trajektorie) zum notwendigen Abdeckungsbereich passt. Wenn also von einer Abdeckung des Sichtbereichs nahezu 100% gefordert sind (Fahrer schläft, kein Car2x, keine Konnektivität, etc.) und die reale Abdeckung (also die Bereiche die wirklich gesehen wurden) geringer als notwendig ist dann kann das Verfahren vorschlagen Rückmeldung an die Fahrstrategie zu geben. Dabei kann es sich sowohl um eine Anpassung der Geschwindigkeit, die Toleranz der Beschleunigung als auch um einen Spurwechsel handeln. Bspw. kann die Vorgabe lauten nur noch den Fahrstreifen zu benutzen der dem Sichtbereich am nächsten ist.The method can now determine which changes are necessary in order to recognize the respective viewing areas. The priority of the viewing areas can be determined as well as the intervention in the possibly existing trajectory or the driving mode. The method can also check whether the driving behavior (driving strategy, trajectory) fits the required coverage area. So if almost 100% coverage of the visual area is required (driver is asleep, no Car2x, no connectivity, etc.) and the real coverage (i.e. the areas that were actually seen) is less than necessary, then the procedure can suggest feedback to the To give driving strategy. This can be an adjustment of the speed, the tolerance of the acceleration or a lane change. For example, the specification can only be to use the lane that is closest to the field of vision.

Ein weiterer Aspekt der Erfindung ist ein Computerprogramm, das, wenn es auf einem Prozessor ausgeführt wird, den Prozessor dazu anleitet, Schritte des Verfahrens wie voranstehend und nachfolgend beschrieben, durchzuführen. Das Computerprogramm kann beispielsweise in einem Speicher des Computersystems bzw. in einem computerlesbaren Medium hinterlegt sein.Another aspect of the invention is a computer program which, when executed on a processor, instructs the processor to carry out steps of the method as described above and below. The computer program can be stored, for example, in a memory of the computer system or in a computer-readable medium.

Ein weiterer Aspekt der Erfindung betrifft ein Computersystem, welches zumindest einen Prozessor und/oder ein computerlesbares Medium aufweist,
wobei der Prozessor dazu eingerichtet ist, das Verfahren, wie voranstehend und nachfolgend beschrieben, durchzuführen und/oder
wobei das computerlesbare Medium dazu eingerichtet ist, das Computerprogramm, wie voranstehend und nachfolgend beschrieben, zu speichern.
Another aspect of the invention relates to a computer system which has at least one processor and / or a computer-readable medium,
wherein the processor is set up to carry out the method, as described above and below, and / or
wherein the computer-readable medium is set up to store the computer program, as described above and below.

Das computerlesbare Medium kann ein Speichermedium sein, wie z. B. ein USB-Stick, eine CD, eine DVD, ein Datenspeichergerät, ein Server, eine Festplatte oder ein anderes Medium, auf dem ein Computerprogramm wie oben beschrieben gespeichert werden kann. Bei dem Computersystem kann es sich um einen PC, einen Server, eine Serverstruktur und/oder eine Cloud-Computing-Struktur handeln.The computer readable medium can be a storage medium, such as e.g. B. a USB stick, a CD, a DVD, a data storage device, a server, a hard drive or other medium on which a computer program can be stored as described above. The computer system can be a PC, a server, a server structure and / or a cloud computing structure.

Ein weiterer Aspekt der Erfindung betrifft ein Fahrzeug, welches eine Sensoreinheit zur Überwachung einer Umgebung des Fahrzeuges aufweist, wobei die Sensoreinheit zumindest einen Sensor aufweist. Der Sensor ist dazu eingerichtet zumindest ein Sichtfeld auszubilden, welches der Sensor überwacht. Dabei ist die Sensoreinheit dazu eingerichtet, Schritte des Verfahrens wie voranstehend und nachfolgend beschrieben auszuführen. Ferner kann der Sensor eine Kamera, ein Radar, ein Lidar und/oder jede andere Art von Sensor sein, welcher dazu geeignet ist ein Sichtfeld auszubilden und eine Abdeckung zu detektieren.Another aspect of the invention relates to a vehicle which has a sensor unit for monitoring the surroundings of the vehicle, the sensor unit having at least one sensor. The sensor is set up to form at least one field of view which the sensor monitors. The sensor unit is set up to carry out steps of the method as described above and below. Furthermore, the sensor can be a camera, a radar, a lidar and / or any other type of sensor which is suitable for forming a field of view and for detecting a cover.

Sämtliche Offenbarungen, welche voranstehend und nachfolgend in Bezug auf einen Aspekt der Erfindung beschrieben sind, gelten gleichermaßen für alle weiteren Aspekte der Erfindung.All disclosures which are described above and below in relation to one aspect of the invention apply equally to all further aspects of the invention.

Nachfolgend werden Ausführungsbeispiele mit Bezug auf die beiliegenden Figuren beschrieben.Exemplary embodiments are described below with reference to the accompanying figures.

FigurenlisteFigure list

  • 1 zeigt ein schematisches Flussdiagramm, welches das Verfahren gemäß einer Ausführungsform beschreibt. 1 shows a schematic flow diagram which describes the method according to an embodiment.
  • 2 zeigt ein schematisches Flussdiagramm, welches das Verfahren gemäß einer Ausführungsform beschreibt. 2 shows a schematic flow diagram which describes the method according to an embodiment.
  • 3 zeigt ein Fahrzeug gemäß einer Ausführungsform. 3 shows a vehicle according to an embodiment.
  • 4 zeigt ein Fahrzeug gemäß einer Ausführungsform. 4th shows a vehicle according to an embodiment.
  • 5 zeigt ein Fahrzeug gemäß einer Ausführungsform. 5 shows a vehicle according to an embodiment.
  • 6 zeigt ein Fahrzeug gemäß einer Ausführungsform. 6th shows a vehicle according to an embodiment.
  • 7 zeigt ein Fahrzeug gemäß einer Ausführungsform. 7th shows a vehicle according to an embodiment.
  • 8 zeigt ein Fahrzeug gemäß einer Ausführungsform. 8th shows a vehicle according to an embodiment.
  • 9 zeigt ein System gemäß einer Ausführungsform. 9 Figure 3 shows a system according to an embodiment.

Detaillierte Beschreibung von AusführungsformenDetailed description of embodiments

Die Figuren sind lediglich schematisch und nicht maßstabsgetreu. In den Figuren können gleiche, gleichwirkende oder ähnliche Elemente mit den gleichen Bezugszeichen verwendet werden.The figures are only schematic and not true to scale. Identical, identically acting or similar elements with the same reference symbols can be used in the figures.

1 zeigt ein schematisches Flussdiagramm zur Darstellung eines Verfahrens 100 zur Minimierung einer Abdeckung eines Sichtfelds eines Sensors 302 eines Fahrzeuges 200, aufweisend die Schritte:

  • - Ermitteln S1 eines ersten Sichtfelds 102 des Sensors zu einem ersten Zeitpunkt,
  • - Ermitteln S2 eines zweiten Sichtfelds 104 des Sensors 302 zu einem zweiten Zeitpunkt,
  • - Detektieren S3 einer ersten Abdeckung 106 des ersten Sichtfelds 102,
  • - Detektieren S4 einer zweiten Abdeckung 108 des zweiten Sichtfelds 104,
  • - Berechnen S5 eines Verdeckungsbereichs 110, welcher durch die erste Abdeckung 106 im ersten Sichtfeld 102 des Sensors 302 und auch durch die zweite Abdeckung 108 des zweiten Sichtfelds 104 des Sensors 302 verdeckt ist,
  • - Ermitteln S6 einer Größe eines Verdeckungsbereich 110,
  • - Vergleichen S7 der Größe des Verdeckungsbereichs 110 mit einem vorbestimmten Schwellwert der Größe des Verdeckungsbereichs 110,
  • - Berechnen einer Anpassung S8 eines Bewegungspfads des Fahrzeuges 200, wenn die Größe des Verdeckungsbereichs 110 den vorbestimmten Schwellwert erreicht und/oder überschreitet,
  • - Anpassen S9 des berechneten Bewegungspfads, wenn durch die Anpassung des Bewegungspfads des Fahrzeuges 200 die Größe des Verdeckungsbereichs 110 reduziert wird.
1 shows a schematic flow diagram to illustrate a method 100 to minimize coverage of a field of view of a sensor 302 of a vehicle 200 , comprising the steps:
  • - Determine S1 a first field of view 102 of the sensor at a first point in time,
  • - Determine S2 a second field of view 104 of the sensor 302 at a second point in time,
  • - Detect S3 a first cover 106 of the first field of view 102 ,
  • - Detect S4 a second cover 108 of the second field of view 104 ,
  • - To calculate S5 an occlusion area 110 which through the first cover 106 in the first field of view 102 of the sensor 302 and also through the second cover 108 of the second field of view 104 of the sensor 302 is covered,
  • - Determine S6 a size of an occlusion area 110 ,
  • - To compare S7 the size of the occlusion area 110 with a predetermined threshold value of the size of the occlusion area 110 ,
  • - Compute an adjustment S8 a movement path of the vehicle 200 when the size of the occlusion area 110 reaches and / or exceeds the predetermined threshold value,
  • - To adjust S9 of the calculated path of movement, if by adapting the path of movement of the vehicle 200 the size of the occlusion area 110 is reduced.

Diese Ausführungsform kann den Vorteil ausbilden, dass Bereiche, welche durch eine Abdeckung verdeckt werden, für ein Fahrzeug sichtbar gemacht werden können und somit Informationen, welche durch die Abdeckung vermeintlich verdeckt gewesen worden wären, sichtbar gemacht werden. Somit kann beispielsweise das Vertrauen in ein automatisiertes Fahrzeug gesteigert werden.This embodiment can develop the advantage that areas which are covered by a cover can be made visible to a vehicle and thus information which would have supposedly been covered by the cover can be made visible. In this way, for example, confidence in an automated vehicle can be increased.

Beispielhafterweise weist ein Fahrzeug 200 eine Sensoreinheit 300 auf, welche zumindest einen Sensor 302 aufweist. Der Sensor 302 ist dazu eingerichtet ein Sichtfeld auszubilden, sodass der Sensor 302 zumindest einen Teil einer Umgebung des Fahrzeuges 200 überwachen kann. Dabei kann der Sensor 302 ein erstes Sichtfeld 102 zu einem ersten Zeitpunkt und ein zweites Sichtfeld 104 zu einem zweiten Zeitpunkt ermitteln und/oder abspeichern. Ferner kann eine erste Abdeckung 106 und eine zweite Abdeckung 108 in dem ersten bzw. zweiten Sichtfeld 102,104 detektiert werden, wobei die Abdeckung beispielsweise ein Fahrzeug, welches sich in der Umgebung des Fahrzeuges 200 befindet, sein kann. Aus dem ersten Sichtfeld 102 und dem zweiten Sichtfeld 104 respektive der ersten Abdeckung 106 und der zweiten Abdeckung 108 kann ein Verdeckungsbereich 110 errechnet werden, welcher durch die erste Abdeckung 106 im ersten Sichtfeld 102 des Sensors 302 und auch durch die zweite Abdeckung 108 des zweiten Sichtfelds 104 des Sensors 302 verdeckt ist. Somit ist der Verdeckungsbereich 110 eine Überschneidung der ersten Abdeckung 106 und der zweiten Abdeckung 108. Anschließend kann eine Größe des Verdeckungsbereichs 110 ermittelt werden, um zu entscheiden, ob der Verdeckungsbereich 110 eine Größe aufweist, welche relevant zur Auswertung der Umgebung sein könnte. Dies kann dadurch geschehen, dass die Größe des Verdeckungsbereichs 110 mit einem vorbestimmten Schwellwert der Größe des Verdeckungsbereichs 110 verglichen werden kann. Sollte die Größe des Verdeckungsbereichs 110 den vorbestimmten Schwellwert erreichen und/oder überschreiten, kann eine Anpassung eines Bewegungspfads des Fahrzeuges 200 berechnet werden. Weitergehend kann der Bewegungspfad angepasst werden, wenn durch die Anpassung des Pfads die Größe des Verdeckungsbereichs 110 reduziert wird. Insbesondere kann ein Steuersignal an ein Fahrzeug 200 übermittelt werden, wenn die Größe des Verdeckungsbereichs 110 reduziert werden kann, indem der Bewegungspfad des Fahrzeuges 200 verändert wird.By way of example, a vehicle has 200 a sensor unit 300 on which at least one sensor 302 having. The sensor 302 is set up to form a field of view so that the sensor 302 at least part of the surroundings of the vehicle 200 can monitor. The sensor can 302 a first field of vision 102 at a first point in time and a second field of view 104 determine and / or save at a second point in time. Furthermore, a first cover 106 and a second cover 108 in the first and second fields of view, respectively 102 , 104 can be detected, the cover for example a vehicle that is in the vicinity of the vehicle 200 is located, can be. From the first field of vision 102 and the second field of view 104 respectively the first cover 106 and the second cover 108 can be a concealment area 110 calculated which one by the first coverage 106 in the first field of view 102 of the sensor 302 and also through the second cover 108 of the second field of view 104 of the sensor 302 is covered. Thus is the occlusion area 110 an overlap of the first cover 106 and the second cover 108 . Subsequently, a size of the occlusion area 110 be determined to decide whether the occlusion area 110 has a size which could be relevant to the evaluation of the environment. This can be done by increasing the size of the occlusion area 110 with a predetermined threshold value of the size of the occlusion area 110 can be compared. Should be the size of the occlusion area 110 Reaching and / or exceeding the predetermined threshold value can be adapted to a movement path of the vehicle 200 be calculated. In addition, the movement path can be adjusted if the adjustment of the path results in the Size of the occlusion area 110 is reduced. In particular, a control signal can be sent to a vehicle 200 be transmitted when the size of the occlusion area 110 can be reduced by changing the path of movement of the vehicle 200 is changed.

2 zeigt ein schematisches Flussdiagramm eines erweiterten Verfahrens 101 gemäß einer Ausführungsform. Das Verfahren kann dabei die Schritte S1 Ermitteln eines ersten Sichtfelds 102, S2 Ermitteln eines zweiten Sichtfelds 104, S3 Detektieren einer ersten Abdeckung 106, S4 Detektieren einer zweiten Abdeckung 108, S5 Berechnen eines Verdeckungsbereichs 110, S6 Ermitteln der Größe des Verdeckungsbereichs 110, S7 Vergleichen der Größe des Verdeckungsbereichs 100, S8 Berechnen einer Anpassung eines Bewegungspfads, S9 Anpassen des berechneten Bewegungspfads umfassen. Ferner kann das Verfahren dabei den Schritt S10 Anpassen des vorbestimmten Schwellwerts umfassen. Zudem kann das Verfahren den Schritt S11 Anpassen einer Auflösung aufweisen. Zudem kann das Verfahren die Schritte S12 Prüfen des berechneten Bewegungspfads, S13 Ausgeben eines Fehlersignals und/oder S14 Reduzieren des Grads der Automatisierung aufweisen. Ferner kann das Verfahren den Schritt S15 Erkennen zumindest eines Objekts und S16 Ermitteln des Verdeckungsbereichs 110 aufweisen. Darüber hinaus kann das Verfahren den Schritt S17 Berechnen eines Bewegungspfads und S18 Ermitteln des Verdeckungsbereichs 110 umfassen. Zudem kann das Verfahren die Schritte S19 Ermitteln eines dritten Sichtfelds, S20 Erkennen des zumindest einen Objekts sowie S21 Ermitteln einer dynamischen Bewegung aufweisen. Ferner kann das Verfahren die S22 Schritte S22 Abrufen eines Signals und S23 Reduzieren der Größe des Verdeckungsbereichs 110 umfassen. Ferner kann das Verfahren die Schritte aufweisen S24 Priorisieren sowie S25 Anpassen aufweisen. Zudem kann das Verfahren die Schritte aufweisen S26 Erkennen zumindest eines Teils eines Informationsträgers sowie S27 Priorisieren. Zudem kann das Verfahren die Schritte umfassen S28 Ermitteln einer Verdeckungsbereichsrate, S29 Vergleichen der ermittelten Verdeckungsbereichsrate und S30 Anpassen des berechneten Bewegungspfads. 2 shows a schematic flow diagram of an extended method 101 according to one embodiment. The procedure can include the steps S1 Determining a first field of view 102 , S2 Finding a second field of view 104 , S3 Detecting a first cover 106 , S4 Detecting a second cover 108 , S5 Calculate an occlusion area 110 , S6 Determine the size of the occlusion area 110 , S7 Compare the size of the occlusion area 100 , S8 Calculating an adjustment of a movement path, S9 Adjust the calculated movement path. Furthermore, the method can include the step S10 Adjusting the predetermined threshold. In addition, the method can include the step S11 Adjusting a resolution have. In addition, the method can include the steps S12 Checking the calculated movement path, S13 Outputting an error signal and / or S14 Reduce the level of automation. Furthermore, the method can include the step S15 Detect at least one object and S16 Determine the occlusion area 110 exhibit. In addition, the method can include the step S17 Calculate a movement path and S18 Determine the occlusion area 110 include. In addition, the method can include the steps S19 Determining a third field of view, S20 Detecting the at least one object as well S21 Detect dynamic motion exhibit. Furthermore, the method can the S22 steps S22 Get a signal and S23 Reduce the size of the occlusion area 110 include. Furthermore, the method can have the steps S24 Prioritize as well S25 Customize. In addition, the method can have the steps S26 Recognize at least part of an information carrier as well S27 Prioritize. In addition, the method can comprise the steps S28 Determining an occlusion area rate, S29 Compare the determined occlusion area rate and S30 Adjusting the calculated movement path.

3 zeigt eine schematische Draufsicht eines Fahrzeuges 200, welches ein Sichtfeld 102 ausbildet. Das Sichtfeld 102 weist eine Abdeckung 106 auf. Ferner ist das Fahrzeug 200' das Fahrzeug 200 zu einem weiteren Zeitpunkt. Dabei weist das Fahrzeug 200' ein zweites Sichtfeld 104 auf. Das zweite Sichtfeld 104 weist eine zweite Abdeckung 108 auf. Die Schnittmenge zwischen der ersten Abdeckung 106 und der zweiten Abdeckung 108 bildet den Verdeckungsbereich 110. 3 shows a schematic plan view of a vehicle 200 which is a field of view 102 trains. The field of view 102 has a cover 106 on. Furthermore, the vehicle is 200 ' the vehicle 200 at another point in time. The vehicle points 200 ' a second field of vision 104 on. The second field of vision 104 has a second cover 108 on. The intersection between the first cover 106 and the second cover 108 forms the concealment area 110 .

4 zeigt eine schematische Draufsicht eines Fahrzeuges 200. Das Fahrzeug 200 weist ein erstes Sichtfeld 102 auf. In dem ersten Sichtfeld kann ein Objekt 250 detektiert werden. Zudem ist das Fahrzeug 200' das Fahrzeug 200 zu einem weiteren, insbesondere zweiten Zeitpunkt. Das Fahrzeug 200' weist das Sichtfeld 104 auf, worin sich das Objekt zu einem zweiten Zeitpunkt befindet 250'. Zudem ist das Fahrzeug 200'' das Fahrzeug 200 zu einem dritten Zeitpunkt. Das Fahrzeug 200'' bildet ein drittes Sichtfeld 112 aus. In dem dritten Sichtfeld 112 wird das Objekt zu einem dritten Zeitpunkt 250" erkannt. Aus der Bewegung des Fahrzeuges 200, 200' und 200'' lässt sich eine dynamische Bewegung des Fahrzeuges ermitteln. Ferner lässt sich mittels der Bewegung des Objekts 250 zu einem ersten, zweiten und dritten Zeitpunkt, 250, 250' und 250'', eine dynamische Bewegung des Objekts feststellen. Die beiden Bewegungspfade können zur Minimierung des Verdeckungsbereich 110 genutzt werden. 4th shows a schematic plan view of a vehicle 200 . The vehicle 200 has a first field of view 102 on. An object can be in the first field of view 250 can be detected. In addition, the vehicle is 200 ' the vehicle 200 at a further, in particular a second, point in time. The vehicle 200 ' shows the field of view 104 where the object is at a second point in time 250 ' . In addition, the vehicle is 200 '' the vehicle 200 at a third point in time. The vehicle 200 '' forms a third field of vision 112 out. In the third field of vision 112 becomes the object at a third point in time 250 " recognized. From the movement of the vehicle 200 , 200 ' and 200 '' a dynamic movement of the vehicle can be determined. Furthermore, by means of the movement of the object 250 at a first, second and third point in time, 250 , 250 ' and 250 '' to detect a dynamic movement of the object. The two movement paths can be used to minimize the occlusion area 110 be used.

5 zeigt eine schematische Draufsicht eines Fahrzeugs zu einem ersten Zeitpunkt. Das Fahrzeug 200 weist ein erstes Sichtfeld 102 auf. Das Fahrzeug 200 zu einem zweiten Zeitpunkt 200' bildet ein zweites Sichtfeld 104 aus. Sowohl in dem ersten Sichtfeld 102 als auch in dem zweiten Sichtfeld 104 befindet sich ein Objekt 250. Das Objekt 250 bildet eine erste Abdeckung 106 und eine zweite Abdeckung 108, wie bspw. auch in 1 und 4 gezeigt, aus, welche sich in dem Verdeckungsbereich 110 überschneiden. 5 shows a schematic top view of a vehicle at a first point in time. The vehicle 200 has a first field of view 102 on. The vehicle 200 at a second point in time 200 ' forms a second field of vision 104 out. Both in the first field of view 102 as well as in the second field of view 104 there is an object 250 . The object 250 forms a first cover 106 and a second cover 108 , such as in 1 and 4th shown from which is in the occlusion area 110 overlap.

6 zeigt eine schematische Draufsicht eines Fahrzeuges 200 zu einem ersten Zeitpunkt. Das Fahrzeug 200 bildet ein erstes Sichtfeld 102 aus. Das Objekt 250, welches sich im ersten Sichtbereich 102 befindet, bildet eine erste Abdeckung 106 aus. Das Fahrzeug 200' ist das Fahrzeug 200 zu einem zweiten Zeitpunkt. Das Fahrzeug 200' bildet ein zweites Sichtfeld 104 aus. In dem zweiten Sichtfeld 104 ist das Objekt zu einem zweiten Zeitpunkt 250'. Durch das Objekt 250' wird eine zweite Abdeckung 108hervorgerufen. Das Fahrzeug 200'' ist das Fahrzeug 200 zu einem dritten Zeitpunkt. Das Fahrzeug 200'' bildet ein drittes Sichtfeld 112 aus. In dem dritten Sichtfeld 112 ist das Objekt 250" zu einem dritten Zeitpunkt zu sehen. Das Objekt zu einem dritten Zeitpunkt 250" bildet eine weitere Abdeckung aus. Die weitere Abdeckung und die zweite Abdeckung 108 bilden einen Verdeckungsbereich 110. 6 zeigt anschaulich, wie der Bewegungspfad eines Fahrzeuges verändert werden kann, um den Verdeckungsbereich 110 zu minimieren. Da das Objekt 250 eine dynamische Bewegung zwischen den drei Zeitpunkten durchführt, kann die dynamische Bewegung des Objekts 250 durch die Veränderung des Bewegungspfads des Fahrzeuges 200 antizipiert werden und somit die Größe des Verdeckungsbereichs 110 weiter reduziert werden. 6th shows a schematic plan view of a vehicle 200 at a first point in time. The vehicle 200 forms a first field of view 102 out. The object 250 , which is in the first field of vision 102 is located, forms a first cover 106 out. The vehicle 200 ' is the vehicle 200 at a second point in time. The vehicle 200 ' forms a second field of vision 104 out. In the second field of vision 104 is the object at a second point in time 250 ' . Through the object 250 ' a second cover 108 is invoked. The vehicle 200 '' is the vehicle 200 at a third point in time. The vehicle 200 '' forms a third field of vision 112 out. In the third field of vision 112 is the object 250 " to be seen at a third time. The object at a third point in time 250 " forms another cover. The further cover and the second cover 108 form a concealment area 110 . 6th clearly shows how the movement path of a vehicle can be changed to include the area of obscuration 110 to minimize. Because the object 250 performs a dynamic movement between the three points in time, the dynamic movement of the object can 250 by changing the vehicle's path of movement 200 can be anticipated and thus the size of the occlusion area 110 can be further reduced.

7 zeigt ein Fahrzeug 200. Das Fahrzeug 200 bildet ein erstes Sichtfeld 102 aus. Das erste Sichtfeld 102 weist einen Verdeckungsbereich 110 auf. Der Verdeckungsbereich 110 weist einen ersten Teil 120 und einen zweiten Teil 122 auf. Für den Fall, dass in dem ersten Teil 120 oder in dem zweiten Teil 122 ein Informationsträger detektiert wird, kann der Bewegungspfad des Fahrzeuges 200 entsprechend angepasst werden, um den Verdeckungsbereich 110 zu minimieren. 7th shows a vehicle 200 . The vehicle 200 forms a first field of view 102 out. The first field of vision 102 has a concealment area 110 on. The concealment area 110 has a first part 120 and a second part 122 on. In the event that in the first part 120 or in the second part 122 an information carrier is detected, the path of movement of the vehicle 200 adjusted accordingly to the occlusion area 110 to minimize.

8 zeigt ein Fahrzeug 200, welches eine Sensoreinheit 300 aufweist. Die Sensoreinheit 300 weist einen Sensor 302 auf, welcher dazu eingerichtet ist, ein Sichtfeld auszubilden. 8th shows a vehicle 200 , which is a sensor unit 300 having. The sensor unit 300 has a sensor 302 which is set up to form a field of view.

9 zeigt ein Computersystem 400, welches zumindest einen Prozessor 402, ein computerlesbares Medium 404 und eine Schnittstelle 406 aufweist. Die Schnittstelle 406 kann dazu eingerichtet sein, Informationen von der Sensoreinheit 300 zu empfangen und Steuersignale an das Fahrzeug 200 weiterzugeben. 9 shows a computer system 400 which at least one processor 402 , a computer readable medium 404 and an interface 406 having. the interface 406 can be set up to receive information from the sensor unit 300 to receive and control signals to the vehicle 200 to pass on.

Ergänzend sei darauf hingewiesen, dass „umfassend“ und „aufweisend“ keine anderen Elemente ausschließt und die unbestimmten Artikel „eine“ oder „ein“ keine Vielzahl ausschließen. Ferner sei darauf hingewiesen, dass Merkmale, die mit Verweis auf eines der obigen Ausführungsbeispiele beschrieben worden sind, auch in Kombination mit anderen Merkmalen anderer oben beschriebener Ausführungsbeispiele verwendet werden können. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.In addition, it should be pointed out that “comprising” and “having” do not exclude any other elements and the indefinite articles “a” or “a” do not exclude a multiplicity. It should also be pointed out that features that have been described with reference to one of the above exemplary embodiments can also be used in combination with other features of other exemplary embodiments described above. Reference signs in the claims are not to be regarded as a restriction.

BezugszeichenlisteList of reference symbols

100 -100 -
VerfahrenProcedure
101 -101 -
erweitertes Verfahrenextended procedure
102 -102 -
erster Sichtbereichfirst viewing area
104 -104 -
zweiter Sichtbereichsecond viewing area
106 -106 -
erste Abdeckungfirst cover
108 -108 -
zweite Abdeckungsecond cover
110 -110 -
VerdeckungsbereichConcealment area
112 -112 -
dritter Sichtbereichthird viewing area
120 -120 -
erster Teilfirst part
122 -122 -
zweiter Teilsecond part
200 -200 -
Fahrzeugvehicle
200' -200 '-
Fahrzeug zu einem zweiten ZeitpunktVehicle at a second time
200'' -200 '' -
Fahrzeug zu einem dritten ZeitpunktVehicle at a third point in time
250 -250 -
Objektobject
250' -250 '-
Objekt zu einem zweiten ZeitpunktObject at a second point in time
250'' -250 '' -
Objekt zu einem dritten ZeitpunktObject at a third point in time
300 -300 -
SensoreinheitSensor unit
302 -302 -
Sensorsensor
400 -400 -
ComputersystemComputer system
402 -402 -
Prozessorprocessor
404 -404 -
Computerlesbares MediumComputer readable medium
406 -406 -
Schnittstelleinterface
S1 -S1 -
Ermitteln eines ersten SichtfeldsDetermining a first field of view
S2 -S2 -
Ermitteln eines zweiten SichtfeldsFinding a second field of view
S3 -S3 -
Detektieren einer ersten AbdeckungDetecting a first cover
S4 -S4 -
Detektieren einer zweiten AbdeckungDetecting a second cover
S5 -S5 -
Berechnen eines VerdeckungsbereichsCalculate an occlusion area
S6 -S6 -
Ermitteln einer Größe des VerdeckungsbereichsDetermining a size of the occlusion area
S7 -S7 -
Vergleichen der Größe des VerdeckungsbereichsCompare the size of the occlusion area
S8 -S8 -
Berechnen einer Anpassung eines BewegungspfadesCompute an adjustment of a movement path
S9 -S9 -
Anpassen des berechneten BewegungspfadesAdjusting the calculated movement path
S10 -S10 -
Anpassen des vorbestimmten SchwellwertsAdjusting the predetermined threshold
S11 -S11 -
Anpassen einer AuflösungAdjusting a resolution
S12 -S12 -
PrüfenCheck
S13 -S13 -
Ausgeben eines FehlersignalsOutput of an error signal
S14 -S14 -
Reduzieren und/oder AufhebenReduce and / or cancel
S15 -S15 -
Erkennen zumindest eines ObjektesRecognize at least one object
S16 -S16 -
Ermitteln des VerdeckungsbereichsDetermine the occlusion area
S17 -S17 -
Berechnen eines BewegungspfadesCalculate a movement path
S18 -S18 -
Ermitteln des VerdeckungsbereichsDetermine the occlusion area
S19 -S19 -
Ermitteln eines dritten SichtfeldsFinding a third field of view
S20 -S20 -
Erkennen des zumindest einen ObjektsRecognizing the at least one object
S21 -S21 -
Ermitteln einer dynamischen BewegungDetect dynamic movement
S22 -S22 -
Abrufen eines SignalsGet a signal
S23 -S23 -
Reduzieren der Größe des VerdeckungsbereichsReduce the size of the occlusion area
S24 -S24 -
PriorisierenPrioritize
S25 -S25 -
Anpassen des berechneten BewegungspfadesAdjusting the calculated movement path
S26 -S26 -
ErkennenDetect
S27 -S27 -
PriorisierenPrioritize
S28 -S28 -
ErmittelnDetermine
S29 -S29 -
Vergleichento compare
S30 -S30 -
Anpassen des berechneten BewegungspfadesAdjusting the calculated movement path

Claims (15)

Verfahren (100) zur Minimierung einer Abdeckung eines Sichtfelds eines Sensors (302) eines Fahrzeuges (200), aufweisend die Schritte: -Ermitteln (S1) eines ersten Sichtfelds (102) des Sensors (302) zu einem ersten Zeitpunkt, -Ermitteln (S2) eines zweiten Sichtfelds (104) des Sensors (302) zu einem zweiten Zeitpunkt, -Detektieren (S3) einer ersten Abdeckung (106) des ersten Sichtfelds (102), -Detektieren (S4) einer zweiten Abdeckung (108) des zweiten Sichtfelds (104), -Berechnen (S5) eines Verdeckungsbereichs (110), welcher durch die erste Abdeckung (106) im ersten Sichtfeld (102) des Sensors und auch durch die zweite Abdeckung (108) des zweiten Sichtfelds (104) des Sensors verdeckt ist, -Ermitteln (S6) einer Größe des Verdeckungsbereichs (110), -Vergleichen (S7) der Größe des Verdeckungsbereichs (110) mit einem vorbestimmten Schwellwert der Größe des Verdeckungsbereichs (110), -Berechnen (S8) einer Anpassung eines Bewegungspfades des Fahrzeuges (200), wenn die Größe des Verdeckungsbereich (110) den vorbestimmten Schwellwert erreicht und/oder überschreitet, -Anpassen (S9) des berechneten Bewegungspfades des Fahrzeugs (200) , wenn durch die Anpassung des Bewegungspfades des Fahrzeuges (200) die Größe des Verdeckungsbereich (110) reduziert wird.Method (100) for minimizing coverage of a field of view of a sensor (302) of a vehicle (200), comprising the steps: - determining (S1) a first field of view (102) of the sensor (302) at a first point in time, - determining (S2) a second field of view (104) of the sensor (302) at a second point in time, - detecting (S3) a first cover (106) of the first field of view (102), - detecting (S4) a second cover (108) of the second field of view (104), - calculating (S5) a concealment area (110) which is covered by the first cover (106) in the first field of view (102) of the sensor and also by the second cover (108) of the second field of view (104) of the sensor, - determining (S6) a size of the concealment area (110), - comparing (S7) the size of the concealment area (110) with a predetermined threshold value of the size of the concealment area (110), Calculating (S8) an adaptation of a movement path of the vehicle (200) if the size of the concealment area (110) reaches and / or exceeds the predetermined threshold value, Adaptation (S9) of the calculated movement path of the vehicle (200) if the size of the concealment area (110) is reduced by adapting the movement path of the vehicle (200). Verfahren nach Anspruch 1, wobei das Verfahren ferner den Schritt aufweist: -Anpassen (S10) des vorbestimmten Schwellwerts der Größe des Verdeckungsbereichs (110) an einen Grad einer Automatisierung des Fahrzeuges (200).Procedure according to Claim 1 wherein the method further comprises the step of: adapting (S10) the predetermined threshold value of the size of the concealment area (110) to a degree of automation of the vehicle (200). Verfahren nach Anspruch 2, wobei das Verfahren ferner den Schritt aufweist: -Anpassen (S11) einer Auflösung und/oder einer Reichweite des ersten Sichtfelds (102) des Sensors (302) und/oder des zweiten Sichtfelds (104) des Sensors (302) basierend auf dem Grad der Automatisierung des Fahrzeugs (200).Procedure according to Claim 2 wherein the method further comprises the step of: -adapting (S11) a resolution and / or a range of the first field of view (102) of the sensor (302) and / or of the second field of view (104) of the sensor (302) based on the degree the automation of the vehicle (200). Verfahren nach einem der Ansprüche 2 bis 3, wobei das Verfahren ferner die Schritte aufweist: -Prüfen (S12) ob der berechnete Bewegungspfad innerhalb eines zulässigen Bereichs des Bewegungspfades ist, -Ausgeben (S13) eines Fehlersignals, wenn der berechnete Bewegungspfad die zumindest eine Begrenzung des Bewegungspfades überschreitet, -Reduzieren (S14) und/oder Aufheben des Grads der Automatisierung des Fahrzeugs (200) basierend auf dem Fehlersignal.Method according to one of the Claims 2 to 3 The method further comprising the steps of: checking (S12) whether the calculated movement path is within a permissible range of the movement path, outputting (S13) an error signal if the calculated movement path exceeds the at least one limit of the movement path, -reducing (S14 ) and / or overriding the degree of automation of the vehicle (200) based on the error signal. Verfahren nach einem der vorherigen Ansprüche, wobei die Anpassung des Bewegungspfades des Fahrzeuges (200) eine Veränderung der Geschwindigkeit des Fahrzeuges (200) und/oder ein Spurwechsel des Fahrzeugs (200) ist.Method according to one of the preceding claims, wherein the adaptation of the movement path of the vehicle (200) is a change in the speed of the vehicle (200) and / or a lane change of the vehicle (200). Verfahren nach einem der vorherigen Ansprüche, wobei das Verfahren die Schritte aufweist: -Erkennen (S15) zumindest eines Objektes (250), einer Position des Objekts (250), und/oder einer Art des Objektes (250) im ersten Sichtfeld (102) des Sensors (302) und/oder im zweiten Sichtfeld (104) des Sensors (302), wobei das zumindest eine Objekt (250) zumindest einen Teil der ersten Abdeckung (106) im ersten Sichtfeld und/oder zumindest einen Teil der zweiten Abdeckung (108) im zweiten Sichtfeld (104) ausbildet, -Ermitteln (S16) des Verdeckungsbereichs (110) zudem basierend auf der erkannten Position und/oder der Art des Objekts (250) im ersten Sichtfeld (102) des Sensors (302) und/oder im zweiten Sichtfelds (104) des Sensors (302).Method according to one of the preceding claims, the method comprising the steps of: - Detecting (S15) at least one object (250), a position of the object (250), and / or a type of object (250) in the first field of view (102) of the sensor (302) and / or in the second field of view (104) of the sensor (302), wherein the at least one object (250) forms at least part of the first cover (106) in the first field of view and / or at least a part of the second cover (108) in the second field of view (104), - Determination (S16) of the concealment area (110) also based on the detected position and / or the type of object (250) in the first field of view (102) of the sensor (302) and / or in the second field of view (104) of the sensor (302) ). Verfahren nach Anspruch 6, wobei das Verfahren ferner die Schritte aufweist: -Berechnen (S17) eines Bewegungspfades des erkannten Objektes (250) basierend auf einer ersten Position des erkannten Objektes (250) im ersten Sichtfeld (102) des Sensors und basierend auf einer zweiten Position des erkannten Objektes (250') im zweiten Sichtfeld (104) des Sensors, -Ermitteln (S18) des Verdeckungsbereichs (110) basierend auf dem berechneten Bewegungspfad des erkannten Objekts (250).Procedure according to Claim 6 wherein the method further comprises the steps of: calculating (S17) a movement path of the recognized object (250) based on a first position of the recognized object (250) in the first field of view (102) of the sensor and based on a second position of the recognized object (250 ') in the second field of view (104) of the sensor, determining (S18) the concealment area (110) based on the calculated movement path of the detected object (250). Verfahren nach einem Ansprüche 6 bis 7, wobei das Verfahren ferner die Schritte aufweist: -Ermitteln (S19) eines dritten Sichtfelds (112) des Sensors zu einem dritten Zeitpunkt, -Erkennen (S20) des zumindest einen Objekts (250) und einer dritten Position des Objekts (250'') im dritten Sichtfeld (112) des Sensors, -Ermitteln (S21) einer dynamischen Bewegung im berechneten Bewegungspfad des erkannten Objekts (250) basierend auf der ersten Position, der zweiten Position und der dritten Position des Objekts (250, 250', 250'').Method according to a Claims 6 to 7th wherein the method further comprises the steps of: -determining (S19) a third field of view (112) of the sensor at a third point in time, -recognition (S20) of the at least one object (250) and a third position of the object (250 ″) in the third field of view (112) of the sensor, determining (S21) a dynamic movement in the calculated movement path of the detected object (250) based on the first position, the second position and the third position of the object (250, 250 ', 250'' ). Verfahren nach einem der vorherigen Ansprüche, wobei das Verfahren ferner die Schritte aufweist: -Abrufen (S22) eines Signals, welches zumindest teilweise den ermittelten Verdeckungsbereich (110) beschreibt, -Reduzieren (S23) der Größe des Verdeckungsbereichs (110) basierend auf dem abgerufenen Signal.Method according to one of the preceding claims, wherein the method further comprises the steps of: retrieving (S22) a signal which at least partially describes the determined concealment area (110), -reducing (S23) the size of the concealment area (110) based on the retrieved Signal. Verfahren nach einem der vorherigen Ansprüche, wobei der Verdeckungsbereich (110) zumindest einen ersten Teilbereich (120) und einen zweiten Teilbereich (122) aufweist, wobei das Verfahren ferner die Schritte aufweist: -Priorisieren (S24) des ersten Teilbereichs (120) oder des zweiten Teilbereichs (122) des Verdeckungsbereichs (110), -Anpassen (S25) des berechneten Bewegungspfades basierend auf dem priorisierten Teilbereich der Abdeckung des Sichtfelds des Sensors.Method according to one of the preceding claims, wherein the concealment area (110) has at least a first sub-area (120) and a second sub-area (122), the method further comprising the steps: - prioritizing (S24) the first sub-area (120) or the second sub-area (122) of the concealment area (110), Adapting (S25) the calculated movement path based on the prioritized sub-area of the coverage of the field of view of the sensor. Verfahren nach Anspruch 10, wobei das Priorisieren des ersten Teilbereichs oder des zweiten Teilbereichs die Schritte aufweist: -Erkennen (S26) zumindest eines Teils eines Informationsträgers, insbesondere an einem Rand des Verdeckungsbereichs, im ersten Teilbereich (120) und/oder zweiten Teilbereichs (122), -Priorisieren (S27) des ersten Teilbereichs (120) oder des zweiten Teilbereichs (122) basierend darauf in welchem Teilbereich sich der zumindest teilweise erkannte Informationsträger befindet.Procedure according to Claim 10 , the prioritization of the first sub-area or the second sub-area comprising the steps: -recognition (S26) of at least part of an information carrier, in particular at an edge of the concealment area, in the first sub-area (120) and / or second sub-area (122), -prioritising (S27) of the first sub-area (120) or of the second sub-area (122) based on the sub-area in which the at least partially recognized information carrier is located. Verfahren nach einem der vorherigen Ansprüche, wobei das Verfahren die Schritte aufweist: -Ermitteln (S28) einer Verdeckungsbereichrate des ersten Sichtfelds des Sensors und/oder des zweiten Sichtfelds des Sensors über einen vorbestimmten Zeitraum, -Vergleichen (S29) der ermittelten Verdeckungsbereichrate mit einem vorbestimmten Grenzwert der Verdeckungsbereichrate, - Anpassen (S30) des berechneten Bewegungspfades, wenn der vorbestimmte Grenzwert der Verdeckungsbereichrate erreicht und/oder überschritten wird.Method according to one of the preceding claims, the method comprising the steps of: Determining (S28) an occlusion area rate of the first field of view of the sensor and / or of the second field of view of the sensor over a predetermined period of time, -Comparing (S29) the determined occlusion area rate with a predetermined limit value of the occlusion area rate, - Adapting (S30) the calculated movement path if the predetermined limit value of the occlusion area rate is reached and / or exceeded. Computerprogramm, das, wenn es auf einem Prozessor ausgeführt wird, den Prozessor dazu anleitet, Schritte des Verfahrens (100) gemäß einem der Ansprüche 1 bis 12 durchzuführen.Computer program which, when executed on a processor, instructs the processor to carry out steps of the method (100) according to one of the Claims 1 to 12th perform. Computersystem (400), welches zumindest einen Prozessor (402) und/oder ein computerlesbares Medium (404) aufweist, wobei der Prozessor (402) dazu eingerichtet ist das Verfahren (100) gemäß einem der Ansprüche 1 bis 12 durchzuführen, und/oder wobei das computerlesbare Medium (404) dazu eingerichtet ist das Computerprogramm gemäß Anspruch 13 zu speichern.Computer system (400) which has at least one processor (402) and / or a computer-readable medium (404), the processor (402) being set up for the method (100) according to one of the Claims 1 to 12th perform, and / or wherein the computer-readable medium (404) is set up for the computer program according to Claim 13 save. Fahrzeug (200), aufweisend eine Sensoreinheit (300) zur Überwachung einer Umgebung des Fahrzeuges (200), wobei die Sensoreinheit (300) zumindest einen Sensor (302) aufweist, welcher dazu eingerichtet ist zumindest ein Sichtfeld auszubilden, welches der Sensor überwacht, wobei die Sensoreinheit (300) dazu eingerichtet ist Schritte des Verfahrens (100) gemäß einem der Ansprüche 1 bis 12 auszuführen.Vehicle (200), having a sensor unit (300) for monitoring the surroundings of the vehicle (200), the sensor unit (300) having at least one sensor (302) which is set up to form at least one field of view which the sensor monitors, with the sensor unit (300) is set up for this purpose according to one of the steps of the method (100) Claims 1 to 12th to execute.
DE102019213951.5A 2019-09-12 2019-09-12 Method for minimizing coverage of a field of view of a sensor of a vehicle Pending DE102019213951A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019213951.5A DE102019213951A1 (en) 2019-09-12 2019-09-12 Method for minimizing coverage of a field of view of a sensor of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019213951.5A DE102019213951A1 (en) 2019-09-12 2019-09-12 Method for minimizing coverage of a field of view of a sensor of a vehicle

Publications (1)

Publication Number Publication Date
DE102019213951A1 true DE102019213951A1 (en) 2021-03-18

Family

ID=74686500

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019213951.5A Pending DE102019213951A1 (en) 2019-09-12 2019-09-12 Method for minimizing coverage of a field of view of a sensor of a vehicle

Country Status (1)

Country Link
DE (1) DE102019213951A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022114219A1 (en) 2022-06-07 2023-12-07 Audi Aktiengesellschaft Method for operating a lane change assistance system and motor vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014102762A1 (en) * 2013-03-14 2014-09-18 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) A system and method for improving the sensor vision of a vehicle in an autonomous driving mode
DE102014010272A1 (en) * 2014-07-11 2015-01-15 Daimler Ag Method for determining a field of view of a detection unit of a vehicle
DE102013019145A1 (en) * 2013-11-15 2015-05-21 Audi Ag Method for operating a motor vehicle with environmental sensors and motor vehicle
DE102018105293A1 (en) * 2017-03-08 2018-09-20 GM Global Technology Operations LLC METHOD AND DEVICE FOR A NETWORKED SCENE REPRESENTATION AND EXPANSION IN VEHICLE ENVIRONMENTS IN AUTONOMOUS DRIVING SYSTEMS
DE102018121158A1 (en) * 2018-08-30 2020-03-05 Valeo Schalter Und Sensoren Gmbh Ground sensing point method and driver support system configured to perform such a method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014102762A1 (en) * 2013-03-14 2014-09-18 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) A system and method for improving the sensor vision of a vehicle in an autonomous driving mode
DE102013019145A1 (en) * 2013-11-15 2015-05-21 Audi Ag Method for operating a motor vehicle with environmental sensors and motor vehicle
DE102014010272A1 (en) * 2014-07-11 2015-01-15 Daimler Ag Method for determining a field of view of a detection unit of a vehicle
DE102018105293A1 (en) * 2017-03-08 2018-09-20 GM Global Technology Operations LLC METHOD AND DEVICE FOR A NETWORKED SCENE REPRESENTATION AND EXPANSION IN VEHICLE ENVIRONMENTS IN AUTONOMOUS DRIVING SYSTEMS
DE102018121158A1 (en) * 2018-08-30 2020-03-05 Valeo Schalter Und Sensoren Gmbh Ground sensing point method and driver support system configured to perform such a method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022114219A1 (en) 2022-06-07 2023-12-07 Audi Aktiengesellschaft Method for operating a lane change assistance system and motor vehicle

Similar Documents

Publication Publication Date Title
EP1920268B1 (en) Method for the detection of a traffic zone
DE102010006828B4 (en) Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle
DE102014013672B4 (en) Method and system for securing autonomous or semi-autonomous operation of vehicles on a traffic route network
WO2021043507A1 (en) Lateral control of a vehicle by means of environment data detected from other vehicles
DE102017116212A1 (en) STREET APPROACH DETECTION WITH RETURN CAMERA
WO2014032904A1 (en) Method and apparatus for identifying a position of a vehicle in a lane
DE112015001128T5 (en) Display object information display device
DE102017201665A1 (en) Method for integrating a dynamic object into a digital map of a highly automated vehicle (HAF)
WO2017202522A1 (en) Method for providing vehicle trajectory information and method for determining the location of a pothole
DE102016210534A1 (en) Method for classifying an environment of a vehicle
DE102021103149A1 (en) METHOD AND DEVICE FOR DETERMINING THE OPTIMAL CROSSING LANE IN AN ASSISTED DRIVING SYSTEM
DE102016219503A1 (en) Method and driver assistance system for detecting the intention of a pedestrian to cross an ego lane
DE102014215570A1 (en) Car navigation system
WO2017102623A1 (en) Method and device for predicting a movement of a road traffic participant in a traffic space
DE102021206187A1 (en) System, control unit and method for determining a geofencing event of a vehicle
DE102018113314A1 (en) Driving Assistance System
DE102016219124A1 (en) Method and device for creating a dynamic hazard map
DE102021113651B3 (en) System for sensor data fusion for environmental perception
DE102019213951A1 (en) Method for minimizing coverage of a field of view of a sensor of a vehicle
DE102019216747A1 (en) Method of providing an overlay map section
DE102018213378B4 (en) Driver assistance system for a vehicle, vehicle with the same and driver assistance method for a vehicle
DE102019107279A1 (en) Method and device for recognizing a traffic law violation by falling below a permissible distance between a following vehicle and a leading vehicle
DE102021207181B3 (en) Method for automatically recognizing a right-before-left situation and motor vehicle
WO2023036545A1 (en) Method and control circuit for checking whether a presently active driving mode is being operated within its odd, and system and back-end server
DE102008050456A1 (en) Ego lane recognizing method for motor vehicle, involves validating transformed lines by removing of transformed lines, defining vertical line by main axis of camera, and comparing validated lines with lines of model to determine lane

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE