DE102019213951A1 - Method for minimizing coverage of a field of view of a sensor of a vehicle - Google Patents
Method for minimizing coverage of a field of view of a sensor of a vehicle Download PDFInfo
- Publication number
- DE102019213951A1 DE102019213951A1 DE102019213951.5A DE102019213951A DE102019213951A1 DE 102019213951 A1 DE102019213951 A1 DE 102019213951A1 DE 102019213951 A DE102019213951 A DE 102019213951A DE 102019213951 A1 DE102019213951 A1 DE 102019213951A1
- Authority
- DE
- Germany
- Prior art keywords
- field
- view
- area
- sensor
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 230000033001 locomotion Effects 0.000 claims abstract description 87
- 230000008859 change Effects 0.000 claims description 11
- 230000006978 adaptation Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 7
- 238000012544 monitoring process Methods 0.000 claims description 2
- 238000012913 prioritisation Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000010835 comparative analysis Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000004393 prognosis Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren (100) zur Minimierung einer Abdeckung eines Sichtfelds eines Sensors (302) eines Fahrzeuges (200), wobei mittels einer Anpassung des Bewegungspfades des Fahrzeugs (200) die Abdeckung des Sensors (302) minimiert werden kann.The invention relates to a method (100) for minimizing coverage of a field of view of a sensor (302) of a vehicle (200), wherein the coverage of the sensor (302) can be minimized by adapting the movement path of the vehicle (200).
Description
Die vorliegende Erfindung betrifft ein Verfahren zur Minimierung einer Abdeckung eines Sichtfelds eines Sensors eines Fahrzeuges, ein Computerprogramm, ein Computersystem sowie ein Fahrzeug.The present invention relates to a method for minimizing coverage of a field of view of a sensor of a vehicle, a computer program, a computer system and a vehicle.
Videobasierte Sensoren können kaum durch andere Sensoren ausgeglichen oder ersetzt werden. Zur Aufnahme und Erkennung von Objekten, wie beispielsweise Verkehrsschildern, werden heute ausschließlich Kamerasysteme benützt. Kameras sind aus den Fahrzeugen nicht mehr wegzudenken. Viele Umgebungsdaten sind zwar bereits lokal oder in einer Cloud gespeichert, jedoch gibt es immer wieder neue Verkehrssituationen, die weder lokal noch in der Cloud abrufbar sind bzw. welche sich auch nur schwierig abspeichern lassen, wie beispielsweise ein Fußgänger, der eine Straße überquert. Zudem können sich teilweise auch Verkehrssituationen nicht abrufen lassen, da aufgrund einer Überlastung des Netzwerks oder fehlender Konnektivität die Informationen für ein Fahrzeug nicht zugänglich sind.Video-based sensors can hardly be compensated for or replaced by other sensors. Only camera systems are used today to record and recognize objects such as traffic signs. Cameras have become indispensable in vehicles. Much environmental data is already stored locally or in a cloud, but there are always new traffic situations that cannot be accessed locally or in the cloud or that are difficult to save, such as a pedestrian crossing a street. In addition, some traffic situations cannot be called up because the information is not accessible to a vehicle due to network overload or a lack of connectivity.
Offenbarung der ErfindungDisclosure of the invention
Mit Ausführungsformen der Erfindung kann in vorteilhafter Weise ein verbessertes Verfahren zur Minimierung einer Abdeckung eines Sichtfelds eines Sensors eines Fahrzeuges bereitgestellt werden.With embodiments of the invention, an improved method for minimizing coverage of a field of view of a sensor of a vehicle can be provided in an advantageous manner.
Die Erfindung ist in den unabhängigen Ansprüchen definiert. Vorteilhafte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen und der nachfolgenden Beschreibung.The invention is defined in the independent claims. Advantageous developments of the invention emerge from the dependent claims and the following description.
Ein erster Aspekt betrifft ein Verfahren zur Minimierung einer Abdeckung eines Sichtfelds eines Sensors eines Fahrzeuges, welches die Schritte aufweist:
- - Ermitteln eines ersten Sichtfelds des Sensors zu einem ersten Zeitpunkt,
- - Ermitteln eines zweiten Sichtfelds des Sensors zu einem zweiten Zeitpunkt,
- - Detektieren einer ersten Abdeckung des ersten Sichtfelds,
- - Detektieren einer zweiten Abdeckung des zweiten Sichtfelds,
- - Berechnen eines Verdeckungsbereichs, welcher durch die erste Abdeckung im ersten Sichtfeld des Sensors und auch durch die zweite Abdeckung des zweiten Sichtfelds des Sensors verdeckt ist,
- - Ermitteln einer Größe des Verdeckungsbereichs,
- - Vergleichen der Größe des Verdeckungsbereichs mit einem vorbestimmten Schwellwert der Größe des Verdeckungsbereichs,
- - Berechnen einer Anpassung eines Bewegungspfads des Fahrzeuges, wenn die Größe des Verdeckungsbereichs den vorbestimmten Schwellwert erreicht und/oder überschreitet,
- - Anpassen des berechneten Bewegungspfads, wenn durch die Anpassung des Bewegungspfads die Größe des Verdeckungsbereichs reduziert wird.
- - determining a first field of view of the sensor at a first point in time,
- - Determination of a second field of view of the sensor at a second point in time,
- - Detecting a first coverage of the first field of view,
- - Detecting a second coverage of the second field of view,
- - Calculating a concealment area which is covered by the first cover in the first field of view of the sensor and also by the second cover of the second field of view of the sensor,
- - determining a size of the concealment area,
- - comparing the size of the concealment area with a predetermined threshold value of the size of the concealment area,
- - Calculating an adaptation of a movement path of the vehicle if the size of the concealment area reaches and / or exceeds the predetermined threshold value,
- - Adjustment of the calculated movement path if the size of the obscuration area is reduced by adjusting the movement path.
Der Vorteil dieser Ausführungsform ist, dass Objekte, wie beispielsweise Verkehrszeichen, welche nicht mittels einer hochgenauen Karte darstellbar bzw. mithilfe einer Onlineverbindung vorhersehbar sind, durch eine Kamera in einem Fahrzeug detektiert werden können. Ferner können dabei beispielsweise wandernde Verkehrszeichen, wie ein Verkehrszeichen, welches sich auf einem Anhänger befindet und einem Lastzug folgt, derart detektiert werden, dass die Größe der Verdeckung des Sensors reduziert wird. Somit kann auch ein Grad der Automatisierung eines Fahrzeuges erhöht werden, da durch die verbesserte Detektion der Umgebung durch das Verfahren der Grad der Automatisierung gesteigert werden kann.The advantage of this embodiment is that objects, such as traffic signs, which cannot be represented by means of a high-precision map or foreseen by means of an online connection, can be detected by a camera in a vehicle. Furthermore, for example, moving traffic signs, such as a traffic sign which is located on a trailer and follows a truck, can be detected in such a way that the size of the obscuration of the sensor is reduced. Thus, the degree of automation of a vehicle can also be increased, since the method can increase the degree of automation due to the improved detection of the surroundings.
Gemäß dem ersten Aspekt wird ein erster Sichtbereich des Sensors zu einem ersten Zeitpunkt ermittelt, berechnet und/oder detektiert. Dabei kann der Zeitpunkt zur Ermittlung des ersten Sichtbereichs in Abhängigkeit eines Bewegungspfads, welcher dem Sensor bekannt sein kann, des Fahrzeugs gewählt werden. Bei dem Sichtfeld des Sensors handelt es sich um einen Erfassungsbereich des Sensors, welches durch den Sensor ausgebildet wird. In anderen Worten kann ein erstes Sichtfelddatenelement empfangen werden, welches repräsentativ für ein erstes Sichtfeld zu einem ersten Zeitpunkt ist. Ferner wird ein zweites Sichtfeld des Sensors zu einem zweiten Zeitpunkt ermittelt, berechnet und/oder detektiert. Ferner kann dabei ein zweites Sichtfelddatenelement bereitgestellt werden, welches repräsentativ für ein zweites Sichtfeld ist. Zudem wird eine erste Abdeckung, Verdeckung und/oder Verdeckung des Sensors des ersten Sichtfelds detektiert, berechnet, geschätzt und/oder ermittelt. In anderen Worten wird ein erstes Abdeckungsdatenelement erhalten bzw. bereitgestellt, welches repräsentativ für eine erste Abdeckung des Sensors zu einem ersten Zeitpunkt steht. Des Weiteren wird eine zweite Abdeckung des zweiten Sichtfelds detektiert, berechnet und/oder ermittelt. Ferner kann dabei ein zweites Abdeckdatenelement bereitgestellt und/oder ermittelt werden, welches repräsentativ für die Abdeckung des zweiten Sichtfelds zu einem zweiten Zeitpunkt steht. Aus der ersten Abdeckung im ersten Sichtfeld des Sensors und durch die zweite Abdeckung des zweiten Sichtfelds des Sensors wird ein Verdeckungsbereich berechnet, kalkuliert und/oder ermittelt. Der Verdeckungsbereich ist eine Kombination aus den Abdeckungen und den Sichtfeldern. In anderen Worten ist der Verdeckungsbereich ein Bereich, der durch die erste Abdeckung im ersten Sichtfeld des Sensors und auch durch die zweite Abdeckung des zweiten Sichtfelds des Sensors verdeckt ist, nicht auflösbar und/oder nicht erkennbar ist und somit für den Sensor verdunkelt ist und/oder nicht einsehbar ist. Ferner wird eine Größe des Verdeckungsbereichs ermittelt, berechnet und/oder abgefragt. Ferner kann die Größe des Verdeckungsbereichs einer geografischen Auflösung beschrieben werden bzw. durch die Größe der Abdeckung bzw. den ermittelten und/oder berechneten Verdeckungsbereichs. Zudem wird die Größe des Verdeckungsbereichs mit einem vorbestimmten Schwellwert, Grenzwert, Maximum und/oder Minimum der Größe des Verdeckungsbereichs verglichen, überprüft und/oder gegengeprüft. Ferner wird dabei eine Anpassung eines Bewegungspfads des Fahrzeuges berechnet und/oder ermittelt, wenn die Größe des Verdeckungsbereichs den vorbestimmten Schwellwert erreicht und/oder überschreitet. Ferner wird der berechnete Bewegungspfad angepasst, abgeändert und/oder neu ermittelt, wenn durch die Anpassung des Bewegungspfads die Größe des Verdeckungsbereichs reduziert, minimiert und/oder verringert wird. Die Anpassung des Bewegungspfads kann Beschleunigen, Bremsen und/oder ein Spurwechsel des Fahrzeuges sein. Alternativ oder ergänzend kann eine Fahrwerkseinstellung, insbesondere ein elektrisches Fahrwerk, des Fahrzeuges an den berechneten Bewegungspfad angepasst werden. Hier kann das erste Sichtfeld durch eine erste Abdeckung verdeckt sein und das zweite Sichtfeld durch eine zweite Abdeckung verdeckt sein, welche sich an einer Stelle überschneiden und somit einen Verdeckungsbereich ausbilden können. Ferner kann die Größe des Verdeckungsbereichs ermittelt werden. Wenn die Größe des Verdeckungsbereichs eine sehr geringe Größe aufweist, kann angenommen werden, dass keine wichtigen Informationen in dem Verdeckungsbereich enthalten sind. Ist die Größe des Verdeckungsbereichs größer oder gleich des vorbestimmten Schwellwerts der Größe des Verdeckungsbereichs kann dies darauf hindeuten, dass wichtige Informationen im Verdeckungsbereich zu erkennen sind. Somit werden verschiedene Szenarien geprüft bzw. berechnet, welche dazu führen können, die Größe des Verdeckungsbereichs zu reduzieren und somit weitere Informationen innerhalb des Verdeckungsbereichs erkennen zu können.According to the first aspect, a first field of view of the sensor is ascertained, calculated and / or detected at a first point in time. The point in time for determining the first field of view can be selected as a function of a movement path of the vehicle, which can be known to the sensor. The field of view of the sensor is a detection area of the sensor, which is formed by the sensor. In other words, a first field of view data element can be received which is representative of a first field of view at a first point in time. Furthermore, a second field of view of the sensor is determined, calculated and / or detected at a second point in time. Furthermore, a second field of view data element can be provided which is representative of a second field of view. In addition, a first covering, covering and / or covering of the sensor of the first field of view is detected, calculated, estimated and / or ascertained. In other words, a first coverage data element is obtained or provided which is representative of a first coverage of the sensor at a first point in time. Furthermore, a second coverage of the second field of view is detected, calculated and / or ascertained. Furthermore, a second coverage data element can be provided and / or determined, which is representative of the coverage of the second field of view at a second point in time. From the first cover in the first field of view of the sensor and through the second cover of the In the second field of view of the sensor, a concealment area is calculated, calculated and / or ascertained. The occlusion area is a combination of the covers and the fields of view. In other words, the concealment area is an area which is covered by the first cover in the first field of view of the sensor and also by the second cover of the second field of view of the sensor, cannot be resolved and / or cannot be recognized and is therefore darkened for the sensor and / or is not visible. Furthermore, a size of the concealment area is determined, calculated and / or queried. Furthermore, the size of the coverage area of a geographic resolution can be described or by the size of the coverage or the determined and / or calculated coverage area. In addition, the size of the concealment area is compared, checked and / or cross-checked with a predetermined threshold value, limit value, maximum and / or minimum of the size of the concealment area. In addition, an adaptation of a movement path of the vehicle is calculated and / or determined when the size of the concealment area reaches and / or exceeds the predetermined threshold value. Furthermore, the calculated movement path is adapted, modified and / or newly determined if the size of the concealment area is reduced, minimized and / or reduced by adapting the movement path. The adaptation of the movement path can be acceleration, braking and / or a lane change of the vehicle. Alternatively or in addition, a chassis setting, in particular an electric chassis, of the vehicle can be adapted to the calculated movement path. Here, the first field of view can be covered by a first cover and the second field of view can be covered by a second cover, which overlap at one point and can thus form a concealment area. Furthermore, the size of the concealment area can be determined. If the size of the occlusion area is very small, it can be assumed that no important information is contained in the occlusion area. If the size of the concealment area is greater than or equal to the predetermined threshold value for the size of the concealment area, this can indicate that important information can be recognized in the concealment area. Various scenarios are thus checked or calculated, which can lead to reducing the size of the concealment area and thus being able to recognize further information within the concealment area.
Gemäß einer Ausführungsform weist das Verfahren ferner den Schritt auf:
- - Anpassen des vorbestimmten Schwellwerts der Größe des Verdeckungsbereichs an einen Grad der Automatisierung des Fahrzeuges.
- - Adaptation of the predetermined threshold value of the size of the concealment area to a degree of automation of the vehicle.
In anderen Worten kann der vorbestimmte Schwellwert der Größe des Verdeckungsbereichs an einen Grad einer Automatisierung des Fahrzeuges angepasst, adaptiert und/oder eingestellt werden. Die Automatisierung des Fahrzeuges kann ein Level der Automatisierung des Fahrzeuges und/oder ein Level und/oder Grad eines autonom fahrenden Fahrzeuges sein. Der Vorteil dieser Ausführungsform kann sein, dass durch die korrekte Anpassung des Grads der Automatisierung des Fahrzeuges Ressourcen eingespart werden können, wenn ein hoher Grad der Automatisierung nicht benötigt wird.In other words, the predetermined threshold value of the size of the concealment area can be adapted, adapted and / or set to a degree of automation of the vehicle. The automation of the vehicle can be a level of automation of the vehicle and / or a level and / or degree of an autonomously driving vehicle. The advantage of this embodiment can be that resources can be saved by correctly adapting the degree of automation of the vehicle if a high degree of automation is not required.
Gemäß einer Ausführungsform weist das Verfahren ferner den Schritt auf:
- - Anpassen einer Auflösung und/oder einer Reichweite des ersten Sichtfelds des Sensors und/oder des zweiten Sichtfelds des Sensors, basierend auf dem Grad der Automatisierung des Fahrzeuges.
- - Adapting a resolution and / or a range of the first field of view of the sensor and / or of the second field of view of the sensor, based on the degree of automation of the vehicle.
In anderen Worten kann eine Auflösung der Genauigkeit und/oder eine Reichweite des ersten Sichtfeldsensors bzw. des zweiten Sichtfeldsensors basierend auf dem Grad bzw. Level der Automatisierung des Fahrzeuges angepasst, adaptiert und/oder konfiguriert werden. Beispielsweise kann die Reichweite des Sensors reduziert werden, wenn ein geringer Grad der Automatisierung des Fahrzeuges vorliegt. Andererseits kann die Auflösung, beispielsweise die Kameraauflösung des Sensors, gesteigert werden, wenn ein hoher Grad der Automatisierung vorhanden ist. Diese Ausführungsform kann den Vorteil aufweisen, dass die Langlebigkeit der Sensorik verbessert werden kann, da diese nicht permanent laufen muss.In other words, a resolution of the accuracy and / or a range of the first field of view sensor or of the second field of view sensor can be adapted, adapted and / or configured based on the degree or level of automation of the vehicle. For example, the range of the sensor can be reduced if there is a low degree of automation in the vehicle. On the other hand, the resolution, for example the camera resolution of the sensor, can be increased if there is a high degree of automation. This embodiment can have the advantage that the longevity of the sensor system can be improved, since it does not have to run permanently.
Gemäß einer Ausführungsform weist das Verfahren ferner die Schritte auf:
- - Prüfen, ob der berechnete Bewegungspfad innerhalb eines zulässigen Bereichs des Bewegungspfads ist,
- - Ausgeben eines Fehlersignals, wenn der berechnete Bewegungspfad die zumindest eine Begrenzung des Bewegungspfads überschreitet, und/oder
- - Aufheben des Grads der Automatisierung des Fahrzeuges, basierend auf dem Fehlersignal.
- - Check whether the calculated movement path is within a permissible range of the movement path,
- - Outputting an error signal if the calculated movement path exceeds the at least one limit of the movement path, and / or
- - Override the degree of automation of the vehicle based on the error signal.
In anderen Worten wird der berechnete Bewegungspfad innerhalb eines zulässigen Bereichs des Bewegungspfads geprüft und/oder ermittelt. Ferner kann ein Fehlersignal ausgegeben, berechnet und/oder bereitgestellt werden, wenn der berechnete Bewegungspfad die zumindest eine Begrenzung des Bewegungspfads überschreitet, übertritt und/oder verletzt. Ferner kann der Grad der Automatisierung des Fahrzeuges, basierend auf dem Fehlersignal, reduziert, minimiert, aufgehoben, aufgelöst und/oder beendet werden. Bei dem zulässigen Bereich kann es sich beispielsweise um einen Richtlinienkatalog handeln, wie beispielsweise die Straßenverkehrsordnung, welche das Fahrzeug in seiner Bewegungsfreiheit beschränkt. Ferner kann es sich bei dem zulässigen Bereich um die Umgebung des Fahrzeuges handeln, wie beispielsweise die Vorgabe einer Spurbegrenzung durch eine Fahrbahn. In einer beispielhaften Ausführungsform wird ein Bewegungspfad berechnet, welcher eine Geschwindigkeit von 140 hm/h erfordert. Die zulässige Maximalgeschwindigkeit in diesem Streckenabschnitt ist jedoch 130 km/h. Somit wird ein Fehlersignal ausgegeben, da der berechnete Bewegungspfad von 140 km/h die Begrenzung des Bewegungspfads von 130 km/h überschreitet. Somit kann der Grad der Automatisierung des Fahrzeuges reduziert werden, sodass der Fahrer selbst die Geschwindigkeit wählen kann und/oder die Automatisierung des Fahrzeuges aufgehoben werden, sodass der Fahrer die vollständige Kontrolle über das Fahrzeug erlangt.In other words, the calculated movement path is checked and / or determined within a permissible range of the movement path. Furthermore, an error signal can be output, calculated and / or provided if the calculated movement path exceeds, crosses and / or violates the at least one limitation of the movement path. Furthermore, the degree of automation of the vehicle, based on the Error signal, reduced, minimized, canceled, resolved and / or terminated. The permissible area can be, for example, a catalog of guidelines, such as the road traffic regulations, which restrict the freedom of movement of the vehicle. Furthermore, the permissible area can be the surroundings of the vehicle, such as, for example, the specification of a lane delimitation by a roadway. In an exemplary embodiment, a movement path is calculated which requires a speed of 140 hm / h. However, the maximum permitted speed in this section of the route is 130 km / h. An error signal is thus output because the calculated movement path of 140 km / h exceeds the limitation of the movement path of 130 km / h. The degree of automation of the vehicle can thus be reduced so that the driver can choose the speed himself and / or the automation of the vehicle can be canceled so that the driver has complete control over the vehicle.
Gemäß einer Ausführungsform ist die Anpassung des Bewegungspfads des Fahrzeuges eine Veränderung der Geschwindigkeit des Fahrzeuges und/oder ein Spurwechsel des Fahrzeuges. In anderen Worten kann die Anpassung des Bewegungspfads des Fahrzeuges mittels einer Veränderung der Geschwindigkeit des Fahrzeuges und/oder einem Spurwechsel erfolgen. Dabei kann die Veränderung der Geschwindigkeit des Fahrzeuges ein Bremsen, Beschleunigen und/oder ein Geschwindigkeitshalten sein. Bei einem Spurwechsel kann es sich um einen Wechsel der Fahrspur des Fahrzeuges handeln, beispielsweise um eine, zwei oder eine Vielzahl von Fahrbahnen.According to one embodiment, the adaptation of the movement path of the vehicle is a change in the speed of the vehicle and / or a lane change of the vehicle. In other words, the movement path of the vehicle can be adapted by changing the speed of the vehicle and / or changing lanes. The change in the speed of the vehicle can be braking, accelerating and / or maintaining speed. A lane change can be a change in the lane of the vehicle, for example one, two or a large number of lanes.
Gemäß einer Ausführungsform kann das Verfahren die Schritte aufweisen:
- - Erkennen zumindest eines Objekts, einer Position des Objekts und/oder einer Art des Objekts im ersten Sichtfeld des Sensors und/oder im zweiten Sichtfeld des Sensors, wobei das zumindest eine Objekt zumindest einen Teil der ersten Abdeckung im ersten Sichtfeld und/oder zumindest einen Teil der zweiten Abdeckung im zweiten Sichtfeld ausbildet,
- - Ermitteln des Verdeckungsbereichs, zudem basierend auf der erkannten Position und/oder der Art des Objekts im ersten Sichtfeld des Sensors und/oder im zweiten Sichtfeld des Sensors.
- - Detection of at least one object, a position of the object and / or a type of object in the first field of view of the sensor and / or in the second field of view of the sensor, the at least one object at least part of the first cover in the first field of view and / or at least one Forms part of the second cover in the second field of view,
- - Determination of the concealment area, also based on the detected position and / or the type of object in the first field of view of the sensor and / or in the second field of view of the sensor.
In anderen Worten kann zumindest ein Objekt erkannt, detektiert und/oder ermittelt werden. Ferner kann dabei eine Position des Objekts und/oder eine Art des Objekts im ersten Sichtfeld des Sensors und/oder im zweiten Sichtfeld des Sensors erkannt, detektiert und/oder ermittelt werden. Bei einer Position des Objekts kann es sich beispielsweise um eine geografische Position in Bezug zu dem Fahrzeug handeln. Ferner kann eine Art des Objekts ermittelt werden, welches beispielsweise ein weiteres Fahrzeug, eine Baustelle, ein Straßenwartungsfahrzeug und/oder jede andere Art von Hindernis im Umfeld sein kann. Ferner kann die Abdeckung im ersten Sichtfeld und/oder im zweiten Sichtfeld teilweise durch das Objekt ausgebildet sein, welches erkannt wurde. Ferner kann die Abdeckung auch aus einer Kombination einer Abdeckung und dem erkannten Objekt bestehen. Ferner kann der Verdeckungsbereich zudem basierend auf der erkannten Position und/oder der Art des Objekts im ersten Sichtfeld des Sensors und/oder im zweiten Sichtfeld des Sensors ermittelt, berechnet und/oder bestimmt werden. Beispielsweise kann das Objekt ein Tieflader sein, welcher zwar teilweise eine Abdeckung hervorruft, jedoch zudem Bereiche aufweist, in welchen beispielsweise ein Verkehrsschild erkannt werden kann.In other words, at least one object can be recognized, detected and / or ascertained. Furthermore, a position of the object and / or a type of object in the first field of view of the sensor and / or in the second field of view of the sensor can be recognized, detected and / or ascertained. A position of the object can be, for example, a geographical position in relation to the vehicle. Furthermore, a type of object can be determined, which can be, for example, another vehicle, a construction site, a road maintenance vehicle and / or any other type of obstacle in the vicinity. Furthermore, the cover in the first field of view and / or in the second field of view can be partially formed by the object which was recognized. Furthermore, the cover can also consist of a combination of a cover and the recognized object. Furthermore, the concealment area can also be ascertained, calculated and / or determined based on the recognized position and / or the type of object in the first field of view of the sensor and / or in the second field of view of the sensor. For example, the object can be a low-loader truck which, although it partially creates a cover, also has areas in which, for example, a traffic sign can be recognized.
Gemäß einer Ausführungsform weist das Verfahren ferner auf:
- - Berechnen eines Bewegungspfads des erkannten Objekts, basierend auf einer ersten Position des erkannten Objekts im ersten Sichtfeld des Sensors und basierend auf einer zweiten Position des erkannten Objekts im zweiten Sichtfeld des Sensors,
- - Ermitteln des Verdeckungsbereichs, basierend auf dem berechneten Bewegungspfad des erkannten Objekts.
- Calculating a movement path of the recognized object based on a first position of the recognized object in the first field of view of the sensor and based on a second position of the recognized object in the second field of view of the sensor,
- - Determination of the concealment area based on the calculated movement path of the recognized object.
In anderen Worten kann der Bewegungspfad des erkannten Objekts, basierend auf einer ersten Position des erkannten Objekts im ersten Sichtfeld des Sensors und basierend auf einer zweiten Position des erkannten Objekts im zweiten Sichtfeld des Sensors, berechnet, ermittelt oder bestimmt werden. Alternativ oder ergänzend kann ein linearer Bewegungspfad berechnet werden, basierend auf der ersten Position des erkannten Objekts im ersten Sichtfeld des Sensors und basierend auf einer zweiten Position des erkannten Objekts im zweiten Sichtfeld des Sensors. Beispielsweise kann der Bewegungspfad anhand einer Position x, y des erkannten Objekts zu einem ersten Zeitpunkt und einer weiteren Position des erkannten Objekts an der Position x', y' zu einem zweiten Zeitpunkt ermittelt werden, indem die Differenz zwischen den beiden Koordinaten und den beiden Zeitpunkten gebildet wird. Somit kann der Verdeckungsbereich, basierend auf dem berechneten Bewegungspfad des erkannten Objekts ermittelt, berechnet und/oder bestimmt werden. Dies kann wie beispielhaft dargestellt mittels einer vergleichenden Analyse zwischen der ersten Position des erkannten Objekts und der zweiten Position des erkannten Objekts erfolgen.In other words, the movement path of the recognized object can be calculated, ascertained or determined based on a first position of the recognized object in the first field of view of the sensor and based on a second position of the recognized object in the second field of view of the sensor. Alternatively or additionally, a linear movement path can be calculated based on the first position of the detected object in the first field of view of the sensor and based on a second position of the detected object in the second field of view of the sensor. For example, the movement path can be determined based on a position x, y of the recognized object at a first point in time and a further position of the recognized object at position x ', y' at a second point in time by calculating the difference between the two coordinates and the two points in time is formed. The concealment area can thus be ascertained, calculated and / or determined based on the calculated movement path of the recognized object. As shown by way of example, this can take place by means of a comparative analysis between the first position of the recognized object and the second position of the recognized object.
Gemäß einer Ausführungsform weist das Fahren ferner die Schritte auf:
- - Ermitteln eines dritten Sichtfelds des Sensors zu einem dritten Zeitpunkt,
- - Erkennen des zumindest einen Objekts und einer dritten Position des Objekts im dritten Sichtfeld des Sensors,
- - Ermitteln einer dynamischen Bewegung im berechneten Bewegungspfad des erkannten Objekts, basierend auf der ersten Position, der zweiten Position und der dritten Position des Objekts.
- - Determination of a third field of view of the sensor at a third point in time,
- - Detecting the at least one object and a third position of the object in the third field of view of the sensor,
- Determining a dynamic movement in the calculated movement path of the recognized object, based on the first position, the second position and the third position of the object.
In anderen Worten kann ein drittes Sichtfeld des Sensors zu einem dritten Zeitpunkt ermittelt, bestimmt und/oder detektiert werden. Dabei kann das zumindest eine Objekt an einer dritten Position des Objekts im dritten Sichtfeld des Sensors erkannt, ermittelt und/oder bestimmt werden. Ferner kann dabei eine dynamische Bewegung im berechneten Bewegungspfad des erkannten Objekts, basierend auf der ersten, der zweiten Position und der dritten Position des Objekts ermittelt, berechnet und/oder bestimmt werden. Dabei kann es sich bei der dynamischen Bewegung um einen Beschleunigungs- bzw. Bremsvorgang oder jede andere dynamische Fahrveränderung des Fahrzeuges handeln. Beispielsweise kann ein Objekt in einer ersten Position zu einem ersten Zeitpunkt, einer zweiten Position zu einem zweiten Zeitpunkt und einer dritten Position zu einem dritten Zeitpunkt detektiert werden, welches durch die Positionen x, y, x', y' und x'', y'' zum jeweiligen Zeitpunkt beschrieben werden kann. Durch eine vergleichende Analyse der drei Positionen kann die dynamische Bewegung des Fahrzeuges bestimmt werden.In other words, a third field of view of the sensor can be ascertained, determined and / or detected at a third point in time. The at least one object can be recognized, ascertained and / or determined at a third position of the object in the third field of view of the sensor. Furthermore, a dynamic movement in the calculated movement path of the recognized object can be ascertained, calculated and / or determined based on the first, second and third positions of the object. The dynamic movement can be an acceleration or braking process or any other dynamic driving change of the vehicle. For example, an object can be detected in a first position at a first point in time, a second position at a second point in time and a third position at a third point in time, which is determined by the positions x, y, x ', y' and x ″, y '' can be described at the respective point in time. The dynamic movement of the vehicle can be determined through a comparative analysis of the three positions.
Gemäß einer Ausführungsform weist das Verfahren ferner die Schritte auf:
- - Abrufen eines Signals, welches zumindest teilweise den ermittelten Verdeckungsbereich beschreibt,
- - Reduzieren der Größe des Verdeckungsbereichs, basierend auf dem abgerufenen Signal.
- - Retrieval of a signal which at least partially describes the detected coverage area,
- - Reducing the size of the occlusion area based on the retrieved signal.
In anderen Worten kann ein Signal bzw. ein Signaldatenelement, welches repräsentativ für ein Signal steht, welches zumindest teilweise den ermittelten Verdeckungsbereich beschreibt, abgerufen, heruntergeladen und/oder bereitgestellt werden. Ferner kann dabei die Größe des Verdeckungsbereichs, basierend auf dem abgerufenen Signal bzw. dem Signaldatenelement reduziert, minimiert und/oder aufgelöst werden. Beispielsweise handelt es sich bei dem Signal um eine Information, welche aus einer hochauflösenden GPS-Karte abgerufen werden kann, die mit einer Geschwindigkeitsbegrenzung verknüpft ist. Somit kann beispielsweise die Größe des Verdeckungsbereichs reduziert werden, da bereits die Höchstgeschwindigkeit im Streckenabschnitt mittels des Signals ermittelt werden konnte.In other words, a signal or a signal data element which is representative of a signal which at least partially describes the determined occlusion area can be called up, downloaded and / or provided. Furthermore, the size of the concealment area can be reduced, minimized and / or dissolved based on the retrieved signal or the signal data element. For example, the signal is information that can be called up from a high-resolution GPS map that is linked to a speed limit. Thus, for example, the size of the concealment area can be reduced, since the maximum speed in the route section could already be determined by means of the signal.
In einer Ausführungsform weist der Verdeckungsbereich zumindest einen ersten Teilbereich und einen zweiten Teilbereich auf. Ferner weist dabei das Verfahren die Schritte auf:
- - Priorisieren des ersten Teilbereichs oder des zweiten Teilbereichs des Verdeckungsbereichs,
- - Anpassen des berechneten Bewegungspfads basierend auf dem priorisierenden Teilbereich der Abdeckung des Sichtfelds des Sensors.
- - Prioritizing the first sub-area or the second sub-area of the concealment area,
- Adaptation of the calculated movement path based on the prioritizing sub-area of the coverage of the field of view of the sensor.
In anderen Worten kann der Verdeckungsbereich zumindest einen ersten Teilbereich und einen zweiten Teilbereich aufweisen. Dies kann insbesondere durch eine Vielzahl von Fahrzeugen, welche sich im Sichtbereich des Sensors befinden, hervorgerufen werden.In other words, the concealment area can have at least a first partial area and a second partial area. This can be caused in particular by a large number of vehicles which are in the field of vision of the sensor.
Ferner kann dabei der erste Teilbereich oder der zweite Teilbereich des Verdeckungsbereichs priorisiert, bestimmt und/oder in einer Wichtigkeit erhöht werden. Ferner kann dabei die Größe des ersten Teilbereichs und/oder eine Größe des zweiten Teilbereichs berechnet werden. Ferner kann dabei die Größe des ersten Teilbereichs und/oder des zweiten Teilbereichs gegen einen vorbestimmten Schwellwert verglichen werden. Für den Fall, dass die Größe des ersten Teilbereichs oder des zweiten Teilbereichs den vorbestimmten Grenzwert erreicht und/oder überschreitet, kann der erste und/oder der zweite Teilbereich vernachlässigt werden. Dies kann insbesondere bei der Detektion von Straßenschildern hilfreich sein, da, wenn die Größe des ersten und/oder des zweiten Teilbereichs kleiner als beispielsweise 10 cm ist, kann sich in diesem Bereich kein Straßenschild befinden. Ferner kann dabei der berechnete Bewegungspfad des Fahrzeuges basierend auf dem priorisierten Teilbereich der Abdeckung des Sichtfelds des Sensors angepasst, adaptiert und angeglichen werden. Beispielhafterweise wurde im ersten Teilbereich des Verdeckungsbereichs ein Teil eines Straßenschildes detektiert, sodass der Bewegungspfad derart angepasst wird, dass das Straßenschild vollständig für den Sensor des Fahrzeuges sichtbar wird.Furthermore, the first sub-area or the second sub-area of the concealment area can be prioritized, determined and / or increased in importance. Furthermore, the size of the first sub-area and / or a size of the second sub-area can be calculated. Furthermore, the size of the first sub-area and / or the second sub-area can be compared against a predetermined threshold value. In the event that the size of the first sub-area or the second sub-area reaches and / or exceeds the predetermined limit value, the first and / or the second sub-area can be neglected. This can be particularly helpful when detecting street signs, since if the size of the first and / or the second partial area is smaller than, for example, 10 cm, there can be no street sign in this area. Furthermore, the calculated movement path of the vehicle can be adapted, adapted and matched based on the prioritized sub-area of the coverage of the field of view of the sensor. For example, a part of a road sign was detected in the first sub-area of the concealment area, so that the movement path is adapted in such a way that the road sign is completely visible to the sensor of the vehicle.
Gemäß einer Ausführungsform weißt das Priorisieren des ersten Teilbereichs oder des zweiten Teilbereichs die Schritte auf:
- - Erkennen zumindest eines Teils eines Informationsträgers, insbesondere an einem Randverdeckungsbereich im ersten Teilbereich und/oder zweiten Teilbereich,
- - Priorisieren des ersten Teilbereichs oder des zweiten Teilbereichs basierend darauf, in welchem Teilbereich sich der zumindest teilweise erkannte Informationsträger befindet.
- - Detection of at least a part of an information carrier, in particular at an edge concealment area in the first sub-area and / or second sub-area,
- Prioritizing the first sub-area or the second sub-area based on the sub-area in which the at least partially recognized information carrier is located.
In anderen Worten kann ein Teil eines Informationsträgers, insbesondere an einem Rand des Verdeckungsbereichs im ersten Teilbereich und/oder im zweiten Teilbereich erkannt, ermittelt und/oder identifiziert werden. Ferner kann dabei der erste Teilbereich oder der zweite Teilbereich basierend darauf, in welchem Teilbereich sich der zumindest teilweise erkannte Informationsträger befindet, priorisiert, bevorzugt und/oder mit einer hohen Wichtigkeit versehen werden. Beispielsweise wird im ersten Teilbereich ein Teil eines Informationsträgers, wie beispielsweise ein Straßenverkehrsschild, erkannt. Somit wird der erste Teilbereich priorisiert, um den Verdeckungsbereich insbesondere an der Position, wo der Teil des Informationsträgers bzw. des Straßenschilds erkannt wurde, für den Sensor bzw. das Fahrzeug sichtbar zu machen.In other words, a part of an information carrier, in particular at an edge of the concealment area, can be recognized, determined and / or identified in the first sub-area and / or in the second sub-area. Furthermore, the first sub-area or the second sub-area can be prioritized, preferred and / or given a high level of importance based on the sub-area in which the at least partially recognized information carrier is located. For example, part of an information carrier, such as a road traffic sign, is recognized in the first sub-area. The first sub-area is thus prioritized in order to make the concealment area visible to the sensor or the vehicle, in particular at the position where the part of the information carrier or the road sign was recognized.
Gemäß einer Ausführungsform weist das Verfahren die Schritte auf:
- - Ermitteln einer Verdeckungsbereichsrate des ersten Sichtfelds des Sensors und/oder des zweiten Sichtfelds des Sensors über einen vorbestimmten Zeitraum,
- - Vergleichen der ermittelten Verdeckungsbereichsrate mit einem vorbestimmten Grenzwert der Verdeckungsbereichsrate,
- - Anpassen des berechneten Bewegungspfads, wenn der vorbestimmte Grenzwert der Verdeckungsbereichsrate erreicht und oder überschritten wird.
- - Determination of a coverage area rate of the first field of view of the sensor and / or of the second field of view of the sensor over a predetermined period of time,
- - comparing the determined coverage area rate with a predetermined limit value of the coverage area rate,
- Adaptation of the calculated movement path if the predetermined limit value of the occlusion area rate is reached and / or exceeded.
In anderen Worten kann eine Verdeckungsbereichsrate des ersten Sichtfelds des Sensors und/oder des zweiten Sichtfelds des Sensors über einen vorbestimmten Zeitraum ermittelt, berechnet und/oder detektiert werden. Bei einer Verdeckungsbereichsrate handelt es sich um das Verhältnis zwischen einer ersten Abdeckung im ersten Sichtfeld und/oder einer zweiten Abdeckung des zweiten Sichtfelds des Sensors über einen vorbestimmten Zeitraum. In anderen Worten handelt es sich bei der Verdeckungsbereichsrate um einen Grad der Abdeckung des Sensors über einen vorbestimmten Zeitraum. Ferner kann die Verdeckungsbereichsrate mit einem vorbestimmten Grenzwert der Verdeckungsbereichsrate verglichen, gegenübergestellt und/oder eine vergleichende Analyse durchgeführt werden. Beispielhafterweise beschreibt der vorbestimmte Grenzwert der Verdeckungsbereichsrate einen Wert des Grads der Abdeckung des Sichtfelds des Sensors, ab dem ein sicheres Fahren in einem hochautomatisierten Fahrzeug eventuell nicht mehr möglich sein könnte. Ferner kann der berechnete Bewegungspfad angepasst, optimiert und/oder geändert werden, wenn der vorbestimmte Grenzwert der Verdeckungsbereichsrate erreicht oder überschritten wird. Beispielsweise weist der vorbestimmte Grenzwert der Verdeckungsbereichsrate einen Maximalwert von 10 Prozent auf. Die Abdeckung des Sichtfelds des Sensors beträgt über den vorbestimmten Zeitraum jedoch 12 Prozent. Somit kann der berechnete Bewegungspfad angepasst werden, sodass der Grad der Abdeckung unter den vorbestimmten Grenzwert von 10 Prozent fällt.In other words, a coverage area rate of the first field of view of the sensor and / or of the second field of view of the sensor can be ascertained, calculated and / or detected over a predetermined period of time. A coverage area rate is the ratio between a first coverage in the first field of view and / or a second coverage of the second field of view of the sensor over a predetermined period of time. In other words, the coverage area rate is a degree of coverage of the sensor over a predetermined period of time. Furthermore, the concealment area rate can be compared with a predetermined limit value of the concealment area rate, contrasted and / or a comparative analysis can be carried out. For example, the predetermined limit value of the coverage area rate describes a value of the degree of coverage of the field of view of the sensor, from which safe driving in a highly automated vehicle may no longer be possible. Furthermore, the calculated movement path can be adapted, optimized and / or changed if the predetermined limit value of the occlusion area rate is reached or exceeded. For example, the predetermined limit value of the occlusion area rate has a maximum value of 10 percent. However, the coverage of the field of view of the sensor is 12 percent over the predetermined period of time. The calculated movement path can thus be adapted so that the degree of coverage falls below the predetermined limit value of 10 percent.
Beispielsweise kann der Sensor des Fahrzeugs das Umfeld bzw. das durch den Sensor ausgebildete Sichtfeld (z. B. rechter Fahrbahnrand) aufzeichnen und protokollieren, um dann bei verdeckten Bereichen das Fahrverhalten anpassen zu können, um die verdeckten und/oder nicht erkennbare Bereiche des Sichtfelds noch zu erfassen. Dabei kann das Verfahren berechnen, welche Sichtprobleme in dem bevorstehenden Fahrverlauf entstehen werden. Somit kann das Fahrverhalten des Fahrzeugs im Hinblick auf die Verbesserung der Umfelderkennung optimiert bzw. gesteuert und/oder geregelt werden. Im Idealfall kann dabei eine lückenlose Erkennung des Umfeldes entstehen (z. B. eine lückenlose Erkennung des rechten Fahrbahnrandes). Der Fahrbetrieb auf Autobahnen kann ein Anwendungsfeld des hochautomatisierten Fahrens darstellen. Mittels des Verfahrens kann die Sicherheit der Insassen erhöht werden. Zudem kann die Vertrauenswürdigkeit des automatisierten Fahrens erhöht werden und eine erweiterte Lösungspalette in Grenzsituationen bereitgestellt werden. Beispielsweise kann das Verfahren dazu beitragen die Güte der Ausführung von Software und/ oder Kamera-basierten Anwendungen (z. B. Automatisiertes Fahren) zu erhöhen, insbesondere ohne finanziellen Mehraufwand. Mit dem Verfahren kann die Zuverlässigkeit des automatisierten Fahrens verbessert werden, weil es nicht notwendig ist, dass eine Online-Verbindung besteht. Somit kann die Nutzung der Sensoren des Fahrzeugs und die verwendeten Algorithmen verbessert werden. Mittels des Verfahrens können „unsichtbare“ Objekte sichtbar gemacht werden können resp. in das Sichtfeld der Kamera gelangen. Dabei kann das Verfahren zuerst einen (oder auch mehrere) Bereiche definieren, welcher beobachtet bzw. in welchem Objekte gesucht und erkannt werden sollen. Im Folgenden wird das Beispiel für eine Kamera bzw. für einen optischen Sensor des Fahrzeugs exemplarisch beschrieben. Am Beispiel einer deutschen Bundesautobahn könnte dies bspw. der linke oder der rechte Fahrbahnrand als auch etwaige Bereiche oberhalb der Fahrbahn (Schilderbrücken) sein. Je nach Automatisierungslevel (Society of Automotive Engineers (SAE) Level L1, L2, L3 L4 oder L5) kann auch die Wertigkeit der Umgebungsbereiche variieren. Je nach Fahrsituation (z. B. SAE Automatisierungsgrad L1-L5, derzeitige Aufmerksamkeitsspanne des Fahrers, Geschwindigkeit des Fahrzeugs, erforderliche Reaktionszeit, Konnektivität-Status, Car2Car-Kommunikationsabdeckung und/oder ähnliches) kann bewertet werden wieviel vom jeweiligen Umgebungsbereich klar erkannt werden soll. 0% kann bedeuten das keine Umgebungshinweise (Schilder, Hinweise etc.) erkannt werden müssen, weil das Fahrzeug den Sensoren (intern + extern) vollständig vertraut (bzw. die Informationen würden ausreichen, weil der Fahrer im Moment die Kontrolle über das Fahrzeug hat oder das Fahrzeug ferngesteuert auf definierten Strecken unterwegs ist) . 100% kann bedeuten, dass jeder Umgebungs- und Verkehrshinweis gesehen werden muss (es kann natürlich auch weitere Zwischenbereiche zwischen 0 und 100 % geben).For example, the sensor of the vehicle can record and log the surroundings or the field of view formed by the sensor (e.g. the right edge of the road) in order to then be able to adapt the driving behavior in the case of covered areas to the covered and / or unrecognizable areas of the field of view yet to be captured. In doing so, the method can calculate which vision problems will arise in the upcoming course of the journey. The driving behavior of the vehicle can thus be optimized or controlled and / or regulated with a view to improving the recognition of the surroundings. In the ideal case, this can result in complete recognition of the surroundings (e.g. complete recognition of the right edge of the lane). Driving on motorways can represent a field of application for highly automated driving. The safety of the occupants can be increased by means of the method. In addition, the trustworthiness of automated driving can be increased and an expanded range of solutions can be provided in borderline situations. For example, the method can contribute to increasing the quality of the execution of software and / or camera-based applications (e.g. automated driving), in particular without additional financial outlay. The method can improve the reliability of automated driving because it is not necessary for there to be an online connection. The use of the vehicle's sensors and the algorithms used can thus be improved. Using the method, "invisible" objects can be made visible or. get into the field of view of the camera. The method can first define one (or also several) areas which are to be observed or in which objects are to be searched for and recognized. In the following, the example for a camera or for an optical sensor of the vehicle is described as an example. Using the example of a German federal motorway, this could be, for example, the left or right edge of the lane as well as any areas above the lane (sign gantries). Depending on the automation level (Society of Automotive Engineers (SAE) level L1, L2, L3 L4 or L5), the value of the surrounding areas can also vary. Depending on the driving situation (e.g. SAE degree of automation L1-L5, current attention span of the driver, Speed of the vehicle, required reaction time, connectivity status, Car2Car communication coverage and / or the like) can be assessed how much of the respective surrounding area should be clearly recognized. 0% can mean that no environmental information (signs, notices, etc.) has to be recognized because the vehicle fully trusts the sensors (internal + external) (or the information would be sufficient because the driver is currently in control of the vehicle or the vehicle is under remote control on defined routes). 100% can mean that every environment and traffic information must be seen (there can of course also be further intermediate ranges between 0 and 100%).
Auf Basis der Klassifizierung kann dann der ausgewählte Umgebungsbereich fortlaufend gescannt bzw. beobachtet werden. Beim Scan wird dabei bestimmt wie hoch die Abdeckung des Sichtbereichs bzw. des Sichtfelds (Kameraaufnahme) IST, SEIN WIRD und/oder WAR. IST kann bedeuten, dass ermittelt werden kann, wie des aktuelle Sichtfelds durch die Kameras abgedeckt ist. IST kann einer Momentaufnahme bzw. einem Livebild der Kamera entsprechen. IST kann ferner eine Rückmeldung geben, wieviel Prozent vom Sichtbereich klar erkannt werden sollen (was somit auch Verkehrshinweise miteinschließt).On the basis of the classification, the selected surrounding area can then be continuously scanned or observed. During the scan, it is determined how high the coverage of the field of vision or the field of vision (camera recording) IS, WILL BE and / or WAS. IST can mean that it can be determined how the current field of view is covered by the cameras. IST can correspond to a snapshot or a live image from the camera. IST can also provide feedback as to what percentage of the field of vision should be clearly recognized (which therefore also includes traffic information).
SEIN WIRD: kann eine Prognose aus IST und der prognostizierten Erkennung des Sichtbereiches für einen bestimmten Zeitraum sein, bzw. ein Sichtfeld zu einem späteren Zeitpunkt. Der Zeitraum kann eine zeitliche Achse einschließen und ist durch eine Dauer von x Sekunden definiert (bspw. die Sicht für die nächsten 10 Sekunden, oder die Sicht bis ein bestimmter Streckenpunkt erreicht ist) . Dabei kann die Prognose mit einschließen, wie sich das eigene Fahrzeug und der restliche Verkehr inkl. der Umgebung sich im Rahmen der Zeit verändern (resp. bewegen) . Das Verfahren kann für alle beweglichen als auch für alle unbeweglichen Objekte, welche das Sichtfeld des Sensors versperren, deren Bewegungsbahn in Relation zum verdeckten Sichtbereich bestimmen.BEING WILL: can be a prognosis from the ACTUAL and the prognosticated recognition of the field of vision for a certain period of time, or a field of vision at a later point in time. The period of time can include a time axis and is defined by a duration of x seconds (e.g. the view for the next 10 seconds, or the view until a certain point on the route is reached). The prognosis can include how your own vehicle and the rest of the traffic, including the surrounding area, will change (or move) over time. The method can determine their trajectory in relation to the concealed field of vision for all movable as well as for all immovable objects which block the field of view of the sensor.
WAR: kann vergangene Referenzpositionen beschreiben an denen schon vorbeigefahren wurde und die nicht mehr erkannt werden können. WAR kann aussagen, wieviel von einem bestimmten Streckenabschnitt nicht verdeckt wurde und was damit nicht mehr von den eigenen lokalen Sensoren erfasst werden kann, bzw. nicht erfasst werden konnte.WAR: can describe past reference positions which have already been passed and which can no longer be recognized. WAR can state how much of a certain section of the route has not been covered and what can therefore no longer be detected by its own local sensors or could not be detected.
Beispielsweise kann durch das Verfahren die Sicherheit eines Fahrzeugs erhöht werden; insbesondere ohne finanziellen Mehraufwand. Durch das frühzeitigere erkennen von verdeckten Objekten kann durch das beschriebene Verfahren viel schneller auf die Umwelt reagiert werden. Als Vorteil aus der Identifizierung und Erkennung von nicht-sichtbaren Objekten, insbesondere für das Sichtfeld des Sensors ergibt sich eine Verbesserung des Umfeld-Modells. Dadurch können Trajektorienplanung und Routenführung verbessert und gefährliche Situationen besser vermieden werden.For example, the method can increase the safety of a vehicle; especially without additional financial expense. The earlier detection of hidden objects means that the described method can react much more quickly to the environment. The advantage of identifying and recognizing non-visible objects, in particular for the field of view of the sensor, is an improvement in the environment model. As a result, trajectory planning and route guidance can be improved and dangerous situations can be better avoided.
Im Straßenverkehr ist es in der Regel nicht möglich immer eine hochgenaue Karte mit allen Verkehrsregeln aktuell vorzuhalten. Das beschriebene Verfahren setzt deutlich geringere Anforderungen an Kommunikation zum Backend oder zu anderen Fahrzeugen voraus und kann mit vorhandenen Implementierungen umgesetzt werden. Das Verfahren kann somit das Sicherheitsniveau steigern, ohne dass dies zwangsläufig mit höheren Herstellungskosten für die verwendete Hardware gekoppelt ist. Dieses Verfahren kann insbesondere in Form einer Software implementiert sein, die als Update oder Upgrade zu bestehender Software oder Firmware von Teilnehmern am Netzwerk vertrieben werden kann und insofern ein eigenständiges Produkt darstellen.In road traffic it is usually not possible to always have a highly accurate map with all traffic rules up-to-date. The method described requires significantly lower communication requirements with the backend or other vehicles and can be implemented with existing implementations. The method can thus increase the level of security without this necessarily being coupled with higher manufacturing costs for the hardware used. This method can in particular be implemented in the form of software that can be distributed by participants in the network as an update or upgrade to existing software or firmware and, in this respect, represent an independent product.
Das Verfahren kann mit dem Laden der Umfeld-Daten (bspw. Kartendaten) und des Bewegungspfades des eigenen Fahrzeuges beginnen. Mit diesen Daten kann das Verfahren stetig berechnen, welche maximale Sichtweite erreicht werden kann - Sichtweite bedeutet in diesem Falle das Verkehrshinweise (Ampeln, Schilder, Baustellen) bis zu einer bestimmten Entfernung erkannt werden können. Das Ergebnis dieses Schrittes kann ein Vektor aus einer Entfernung, Koordinaten, einer Zeit und/oder einer Auflösung sein. Mit dem aktuellen Bewegungspfad des Fahrzeuges kann fortlaufend bestimmt werden wieviel Zeit vergeht bis der Sichthorizont (also die aktuelle maximale Sichtweite aus aktueller Position) erreicht wird.The method can begin with loading the environment data (e.g. map data) and the movement path of the own vehicle. With this data, the process can continuously calculate the maximum visibility that can be achieved - in this case, visibility means that traffic information (traffic lights, signs, construction sites) can be recognized up to a certain distance. The result of this step can be a vector from a distance, coordinates, a time and / or a resolution. The current path of movement of the vehicle can be used to continuously determine how much time elapses until the viewing horizon (i.e. the current maximum visibility from the current position) is reached.
Dann kann das Verfahren vorschlagen, dass Daten des Automatisierungsgrades, den Fahrer-Status und bspw. auch der Geschwindigkeit mit einbezogen werden um die notwendige Sichtweite zu bestimmen. Diese muss nicht der maximalen Sichtweiten entsprechen doch umso weiter vorrausgeschaut werden kann (von der aktuellen Position) je autonomer kann das Fahrzeug fahren, je schneller kann das Fahrzeug fahren und/oder umso weniger wird der Fahrer als Überwacher verpflichtend benötigt. Für diese Sichtweite kann das theoretische Blickfeld fortlaufend bestimmt werden. Das kann bedeuten, dass das Verfahren den theoretischen und notwendigen Betrachtungsraum der Kameras (oder anderen Sensoren) bestimmt. In diesem Betrachtungsraum können Objekte identifiziert werden, die das Sichtfeld des Fahrzeuges zur optimalen Sicht einschränken. Das können Fahrzeuge sein, die zwischen dem eigenen Fahrzeug und Verkehrshinweisen stehen. Hierfür kann das Verfahren vorschlagen, die Bewegungsvektoren für diese Objekte vorherzusagen. Dabei kann es sich um ein stehendes Objekt (Baustelle) und/oder um ein sich bewegendes Objekt (Fahrzeug) handeln.The method can then suggest that data on the degree of automation, the driver status and, for example, also the speed be included in order to determine the required visibility. This does not have to correspond to the maximum visibility, but the further you can look ahead (from the current position), the more autonomously the vehicle can drive, the faster the vehicle can drive and / or the less the driver is required as a mandatory monitor. The theoretical field of view can be continuously determined for this visual range. This can mean that the procedure determines the theoretical and necessary viewing area of the cameras (or other sensors). In this viewing area, objects can be identified that restrict the vehicle's field of vision for optimal visibility. These can be vehicles that stand between your own vehicle and traffic information. For this purpose, the method can propose to predict the motion vectors for these objects. This can be a stationary object (construction site) and / or a moving object (vehicle).
Auf Basis dieser Daten kann das Verfahren vorschlagen das reelle Sichtfeld bis zur notwendigen Sichtweit zu bestimmen. Das Verfahren kann bestimmen, welche Teilbereiche der theoretischen Sichtweise ausreichend erkannt, nicht ausreichend erkannt und nicht erkannt werden.On the basis of this data, the method can propose to determine the real field of vision up to the required visual range. The method can determine which sub-areas of the theoretical point of view are sufficiently recognized, insufficiently recognized and not recognized.
Die theoretische Abbildung eines Sichtfeldes zum Zeitpunkt t kann mit dem daraus resultierenden realen Sichtfeld bzw. im Rahmen der notwendigen Sichtweite gegenübergestellt werden. Der Scan kann dabei ganz genau bestimmen, welcher Bereich, bspw. basierend auf GPS- und Zeitdaten) nicht gesehen wurde und kann zudem berechnen wie groß dieser Bereich ist. Dabei kann sich die Frage stellen ob in diesem Bereich ein Schild sein kann. Wenn bspw. nur ein Sichtbereich von 10 cm direkt am Fahrbahnrand nicht erkannt wurde dann kann sich dort auch kein genormtes Straßenschild befinden. Ist der Bereich zu klein so kann das Verfahren den zu kleinen Bereich ignorieren. Der Scan und die Deutung des Sichtbereiches können den nicht sichtbaren Bereich im IST und im Bereich SEIN WIRD markieren. Das Verfahren kann nun bestimmen, ob es Sichtlücken gibt die gar nicht oder nur mit starker Beeinflussung der aktuellen Trajektorie sichtbar gemacht werden können. Diese Sichtbereiche können dann beim Erkennungsversuch ausgeschlossen werden, können aber markiert bleiben. Nun kann optional über die Geoposition und den Zeitpunkt die Cloud (Backend, oder andere Fahrzeuge, Datenbanken) versucht werden den Bereich noch zu bestimmen. Dies kann auch dann geschehen, wenn die lokalen Daten generell vorliegen, da wie beschrieben Baustellenfahrzeuge, Mähfahrzeug, Unfälle usw. hochdynamische Ereignisse sind, die nicht in den lokalen Daten abgespeichert sind.The theoretical mapping of a field of vision at time t can be compared with the resulting real field of vision or within the scope of the necessary visual range. The scan can determine exactly which area, e.g. based on GPS and time data) was not seen and can also calculate how large this area is. The question may arise whether there can be a sign in this area. If, for example, only a field of vision of 10 cm directly on the edge of the road was not recognized, then there cannot be a standardized road sign. If the area is too small, the procedure can ignore the area that is too small. The scan and the interpretation of the field of vision can mark the non-visible area in the ACTUAL and in the ARE BECOMING AREA. The method can now determine whether there are gaps in view that cannot be made visible at all or only with a strong influence on the current trajectory. These areas of view can then be excluded from the detection attempt, but can remain marked. Now, optionally, the cloud (backend, or other vehicles, databases) can use the geoposition and the time to try to determine the area. This can also happen when the local data is generally available, since, as described, construction site vehicles, mowing vehicles, accidents, etc. are highly dynamic events that are not stored in the local data.
Das Verfahren kann dann versuchen die Sichtlücken zu schließen. Zuerst kann bewertet werden, welche Lücke zuerst „sichtbar“ gemacht werden sollte. Ein Faktor kann hierbei sein, dass der Bereich gleich aus dem Sichtbereich der Sensoren verschwindet, als auch, dass ein Verkehrshinweis teilweise gesichtet wurde. Nun kann das Verfahren pro Sichtlücke bestimmen, wie die Trajektorie des Fahrzeuges angepasst wird, sodass damit die Sichtlücken geschlossen werden können; stets unter Berücksichtigung der übergeordneten bestehenden Trajektorie.The process can then try to close the gaps in view. First of all, it can be assessed which gap should be made "visible" first. One factor here can be that the area immediately disappears from the field of view of the sensors, as well as that a traffic notice was partially seen. The method can now determine how the trajectory of the vehicle is adapted for each viewing gap so that the viewing gaps can be closed; always taking into account the higher-level existing trajectory.
Das Verfahren kann nun bestimmen, welche Änderungen notwendig sind um die jeweiligen Sichtbereiche zu erkennen. Dabei kann die Priorität der Sichtbereiche bestimmt werden sowie auch der Eingriff in die evtl. bestehende Trajektorie bzw. den Fahrmodus. Das Verfahren kann zudem prüfen ob das Fahrverhalten (Fahrstrategie, Trajektorie) zum notwendigen Abdeckungsbereich passt. Wenn also von einer Abdeckung des Sichtbereichs nahezu 100% gefordert sind (Fahrer schläft, kein Car2x, keine Konnektivität, etc.) und die reale Abdeckung (also die Bereiche die wirklich gesehen wurden) geringer als notwendig ist dann kann das Verfahren vorschlagen Rückmeldung an die Fahrstrategie zu geben. Dabei kann es sich sowohl um eine Anpassung der Geschwindigkeit, die Toleranz der Beschleunigung als auch um einen Spurwechsel handeln. Bspw. kann die Vorgabe lauten nur noch den Fahrstreifen zu benutzen der dem Sichtbereich am nächsten ist.The method can now determine which changes are necessary in order to recognize the respective viewing areas. The priority of the viewing areas can be determined as well as the intervention in the possibly existing trajectory or the driving mode. The method can also check whether the driving behavior (driving strategy, trajectory) fits the required coverage area. So if almost 100% coverage of the visual area is required (driver is asleep, no Car2x, no connectivity, etc.) and the real coverage (i.e. the areas that were actually seen) is less than necessary, then the procedure can suggest feedback to the To give driving strategy. This can be an adjustment of the speed, the tolerance of the acceleration or a lane change. For example, the specification can only be to use the lane that is closest to the field of vision.
Ein weiterer Aspekt der Erfindung ist ein Computerprogramm, das, wenn es auf einem Prozessor ausgeführt wird, den Prozessor dazu anleitet, Schritte des Verfahrens wie voranstehend und nachfolgend beschrieben, durchzuführen. Das Computerprogramm kann beispielsweise in einem Speicher des Computersystems bzw. in einem computerlesbaren Medium hinterlegt sein.Another aspect of the invention is a computer program which, when executed on a processor, instructs the processor to carry out steps of the method as described above and below. The computer program can be stored, for example, in a memory of the computer system or in a computer-readable medium.
Ein weiterer Aspekt der Erfindung betrifft ein Computersystem, welches zumindest einen Prozessor und/oder ein computerlesbares Medium aufweist,
wobei der Prozessor dazu eingerichtet ist, das Verfahren, wie voranstehend und nachfolgend beschrieben, durchzuführen und/oder
wobei das computerlesbare Medium dazu eingerichtet ist, das Computerprogramm, wie voranstehend und nachfolgend beschrieben, zu speichern.Another aspect of the invention relates to a computer system which has at least one processor and / or a computer-readable medium,
wherein the processor is set up to carry out the method, as described above and below, and / or
wherein the computer-readable medium is set up to store the computer program, as described above and below.
Das computerlesbare Medium kann ein Speichermedium sein, wie z. B. ein USB-Stick, eine CD, eine DVD, ein Datenspeichergerät, ein Server, eine Festplatte oder ein anderes Medium, auf dem ein Computerprogramm wie oben beschrieben gespeichert werden kann. Bei dem Computersystem kann es sich um einen PC, einen Server, eine Serverstruktur und/oder eine Cloud-Computing-Struktur handeln.The computer readable medium can be a storage medium, such as e.g. B. a USB stick, a CD, a DVD, a data storage device, a server, a hard drive or other medium on which a computer program can be stored as described above. The computer system can be a PC, a server, a server structure and / or a cloud computing structure.
Ein weiterer Aspekt der Erfindung betrifft ein Fahrzeug, welches eine Sensoreinheit zur Überwachung einer Umgebung des Fahrzeuges aufweist, wobei die Sensoreinheit zumindest einen Sensor aufweist. Der Sensor ist dazu eingerichtet zumindest ein Sichtfeld auszubilden, welches der Sensor überwacht. Dabei ist die Sensoreinheit dazu eingerichtet, Schritte des Verfahrens wie voranstehend und nachfolgend beschrieben auszuführen. Ferner kann der Sensor eine Kamera, ein Radar, ein Lidar und/oder jede andere Art von Sensor sein, welcher dazu geeignet ist ein Sichtfeld auszubilden und eine Abdeckung zu detektieren.Another aspect of the invention relates to a vehicle which has a sensor unit for monitoring the surroundings of the vehicle, the sensor unit having at least one sensor. The sensor is set up to form at least one field of view which the sensor monitors. The sensor unit is set up to carry out steps of the method as described above and below. Furthermore, the sensor can be a camera, a radar, a lidar and / or any other type of sensor which is suitable for forming a field of view and for detecting a cover.
Sämtliche Offenbarungen, welche voranstehend und nachfolgend in Bezug auf einen Aspekt der Erfindung beschrieben sind, gelten gleichermaßen für alle weiteren Aspekte der Erfindung.All disclosures which are described above and below in relation to one aspect of the invention apply equally to all further aspects of the invention.
Nachfolgend werden Ausführungsbeispiele mit Bezug auf die beiliegenden Figuren beschrieben.Exemplary embodiments are described below with reference to the accompanying figures.
FigurenlisteFigure list
-
1 zeigt ein schematisches Flussdiagramm, welches das Verfahren gemäß einer Ausführungsform beschreibt.1 shows a schematic flow diagram which describes the method according to an embodiment. -
2 zeigt ein schematisches Flussdiagramm, welches das Verfahren gemäß einer Ausführungsform beschreibt.2 shows a schematic flow diagram which describes the method according to an embodiment. -
3 zeigt ein Fahrzeug gemäß einer Ausführungsform.3 shows a vehicle according to an embodiment. -
4 zeigt ein Fahrzeug gemäß einer Ausführungsform.4th shows a vehicle according to an embodiment. -
5 zeigt ein Fahrzeug gemäß einer Ausführungsform.5 shows a vehicle according to an embodiment. -
6 zeigt ein Fahrzeug gemäß einer Ausführungsform.6th shows a vehicle according to an embodiment. -
7 zeigt ein Fahrzeug gemäß einer Ausführungsform.7th shows a vehicle according to an embodiment. -
8 zeigt ein Fahrzeug gemäß einer Ausführungsform.8th shows a vehicle according to an embodiment. -
9 zeigt ein System gemäß einer Ausführungsform.9 Figure 3 shows a system according to an embodiment.
Detaillierte Beschreibung von AusführungsformenDetailed description of embodiments
Die Figuren sind lediglich schematisch und nicht maßstabsgetreu. In den Figuren können gleiche, gleichwirkende oder ähnliche Elemente mit den gleichen Bezugszeichen verwendet werden.The figures are only schematic and not true to scale. Identical, identically acting or similar elements with the same reference symbols can be used in the figures.
- - Ermitteln
S1 eines ersten Sichtfelds102 des Sensors zu einem ersten Zeitpunkt, - - Ermitteln
S2 eines zweiten Sichtfelds104 desSensors 302 zu einem zweiten Zeitpunkt, - - Detektieren
S3 einer ersten Abdeckung106 des ersten Sichtfelds102 , - - Detektieren
S4 einer zweiten Abdeckung108 des zweiten Sichtfelds104 , - - Berechnen
S5 eines Verdeckungsbereichs 110 , welcher durch die ersteAbdeckung 106 im ersten Sichtfeld 102 desSensors 302 und auch durch diezweite Abdeckung 108 des zweiten Sichtfelds104 desSensors 302 verdeckt ist, - - Ermitteln
S6 einer Größe einesVerdeckungsbereich 110 , - - Vergleichen
S7 der Größe desVerdeckungsbereichs 110 mit einem vorbestimmten Schwellwert der Größe desVerdeckungsbereichs 110 , - - Berechnen einer Anpassung
S8 eines Bewegungspfads desFahrzeuges 200 , wenn die Größe desVerdeckungsbereichs 110 den vorbestimmten Schwellwert erreicht und/oder überschreitet, - - Anpassen
S9 des berechneten Bewegungspfads, wenn durch die Anpassung des Bewegungspfads desFahrzeuges 200 die Größe desVerdeckungsbereichs 110 reduziert wird.
- - Determine
S1 a first field ofview 102 of the sensor at a first point in time, - - Determine
S2 a second field ofview 104 of thesensor 302 at a second point in time, - - Detect
S3 afirst cover 106 of the first field ofview 102 , - - Detect
S4 asecond cover 108 of the second field ofview 104 , - - To calculate
S5 anocclusion area 110 which through thefirst cover 106 in the first field ofview 102 of thesensor 302 and also through thesecond cover 108 of the second field ofview 104 of thesensor 302 is covered, - - Determine
S6 a size of anocclusion area 110 , - - To compare
S7 the size of theocclusion area 110 with a predetermined threshold value of the size of theocclusion area 110 , - - Compute an adjustment
S8 a movement path of thevehicle 200 when the size of theocclusion area 110 reaches and / or exceeds the predetermined threshold value, - - To adjust
S9 of the calculated path of movement, if by adapting the path of movement of thevehicle 200 the size of theocclusion area 110 is reduced.
Diese Ausführungsform kann den Vorteil ausbilden, dass Bereiche, welche durch eine Abdeckung verdeckt werden, für ein Fahrzeug sichtbar gemacht werden können und somit Informationen, welche durch die Abdeckung vermeintlich verdeckt gewesen worden wären, sichtbar gemacht werden. Somit kann beispielsweise das Vertrauen in ein automatisiertes Fahrzeug gesteigert werden.This embodiment can develop the advantage that areas which are covered by a cover can be made visible to a vehicle and thus information which would have supposedly been covered by the cover can be made visible. In this way, for example, confidence in an automated vehicle can be increased.
Beispielhafterweise weist ein Fahrzeug
Ergänzend sei darauf hingewiesen, dass „umfassend“ und „aufweisend“ keine anderen Elemente ausschließt und die unbestimmten Artikel „eine“ oder „ein“ keine Vielzahl ausschließen. Ferner sei darauf hingewiesen, dass Merkmale, die mit Verweis auf eines der obigen Ausführungsbeispiele beschrieben worden sind, auch in Kombination mit anderen Merkmalen anderer oben beschriebener Ausführungsbeispiele verwendet werden können. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.In addition, it should be pointed out that “comprising” and “having” do not exclude any other elements and the indefinite articles “a” or “a” do not exclude a multiplicity. It should also be pointed out that features that have been described with reference to one of the above exemplary embodiments can also be used in combination with other features of other exemplary embodiments described above. Reference signs in the claims are not to be regarded as a restriction.
BezugszeichenlisteList of reference symbols
- 100 -100 -
- VerfahrenProcedure
- 101 -101 -
- erweitertes Verfahrenextended procedure
- 102 -102 -
- erster Sichtbereichfirst viewing area
- 104 -104 -
- zweiter Sichtbereichsecond viewing area
- 106 -106 -
- erste Abdeckungfirst cover
- 108 -108 -
- zweite Abdeckungsecond cover
- 110 -110 -
- VerdeckungsbereichConcealment area
- 112 -112 -
- dritter Sichtbereichthird viewing area
- 120 -120 -
- erster Teilfirst part
- 122 -122 -
- zweiter Teilsecond part
- 200 -200 -
- Fahrzeugvehicle
- 200' -200 '-
- Fahrzeug zu einem zweiten ZeitpunktVehicle at a second time
- 200'' -200 '' -
- Fahrzeug zu einem dritten ZeitpunktVehicle at a third point in time
- 250 -250 -
- Objektobject
- 250' -250 '-
- Objekt zu einem zweiten ZeitpunktObject at a second point in time
- 250'' -250 '' -
- Objekt zu einem dritten ZeitpunktObject at a third point in time
- 300 -300 -
- SensoreinheitSensor unit
- 302 -302 -
- Sensorsensor
- 400 -400 -
- ComputersystemComputer system
- 402 -402 -
- Prozessorprocessor
- 404 -404 -
- Computerlesbares MediumComputer readable medium
- 406 -406 -
- Schnittstelleinterface
- S1 -S1 -
- Ermitteln eines ersten SichtfeldsDetermining a first field of view
- S2 -S2 -
- Ermitteln eines zweiten SichtfeldsFinding a second field of view
- S3 -S3 -
- Detektieren einer ersten AbdeckungDetecting a first cover
- S4 -S4 -
- Detektieren einer zweiten AbdeckungDetecting a second cover
- S5 -S5 -
- Berechnen eines VerdeckungsbereichsCalculate an occlusion area
- S6 -S6 -
- Ermitteln einer Größe des VerdeckungsbereichsDetermining a size of the occlusion area
- S7 -S7 -
- Vergleichen der Größe des VerdeckungsbereichsCompare the size of the occlusion area
- S8 -S8 -
- Berechnen einer Anpassung eines BewegungspfadesCompute an adjustment of a movement path
- S9 -S9 -
- Anpassen des berechneten BewegungspfadesAdjusting the calculated movement path
- S10 -S10 -
- Anpassen des vorbestimmten SchwellwertsAdjusting the predetermined threshold
- S11 -S11 -
- Anpassen einer AuflösungAdjusting a resolution
- S12 -S12 -
- PrüfenCheck
- S13 -S13 -
- Ausgeben eines FehlersignalsOutput of an error signal
- S14 -S14 -
- Reduzieren und/oder AufhebenReduce and / or cancel
- S15 -S15 -
- Erkennen zumindest eines ObjektesRecognize at least one object
- S16 -S16 -
- Ermitteln des VerdeckungsbereichsDetermine the occlusion area
- S17 -S17 -
- Berechnen eines BewegungspfadesCalculate a movement path
- S18 -S18 -
- Ermitteln des VerdeckungsbereichsDetermine the occlusion area
- S19 -S19 -
- Ermitteln eines dritten SichtfeldsFinding a third field of view
- S20 -S20 -
- Erkennen des zumindest einen ObjektsRecognizing the at least one object
- S21 -S21 -
- Ermitteln einer dynamischen BewegungDetect dynamic movement
- S22 -S22 -
- Abrufen eines SignalsGet a signal
- S23 -S23 -
- Reduzieren der Größe des VerdeckungsbereichsReduce the size of the occlusion area
- S24 -S24 -
- PriorisierenPrioritize
- S25 -S25 -
- Anpassen des berechneten BewegungspfadesAdjusting the calculated movement path
- S26 -S26 -
- ErkennenDetect
- S27 -S27 -
- PriorisierenPrioritize
- S28 -S28 -
- ErmittelnDetermine
- S29 -S29 -
- Vergleichento compare
- S30 -S30 -
- Anpassen des berechneten BewegungspfadesAdjusting the calculated movement path
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019213951.5A DE102019213951A1 (en) | 2019-09-12 | 2019-09-12 | Method for minimizing coverage of a field of view of a sensor of a vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019213951.5A DE102019213951A1 (en) | 2019-09-12 | 2019-09-12 | Method for minimizing coverage of a field of view of a sensor of a vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019213951A1 true DE102019213951A1 (en) | 2021-03-18 |
Family
ID=74686500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019213951.5A Pending DE102019213951A1 (en) | 2019-09-12 | 2019-09-12 | Method for minimizing coverage of a field of view of a sensor of a vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019213951A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022114219A1 (en) | 2022-06-07 | 2023-12-07 | Audi Aktiengesellschaft | Method for operating a lane change assistance system and motor vehicle |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014102762A1 (en) * | 2013-03-14 | 2014-09-18 | GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) | A system and method for improving the sensor vision of a vehicle in an autonomous driving mode |
DE102014010272A1 (en) * | 2014-07-11 | 2015-01-15 | Daimler Ag | Method for determining a field of view of a detection unit of a vehicle |
DE102013019145A1 (en) * | 2013-11-15 | 2015-05-21 | Audi Ag | Method for operating a motor vehicle with environmental sensors and motor vehicle |
DE102018105293A1 (en) * | 2017-03-08 | 2018-09-20 | GM Global Technology Operations LLC | METHOD AND DEVICE FOR A NETWORKED SCENE REPRESENTATION AND EXPANSION IN VEHICLE ENVIRONMENTS IN AUTONOMOUS DRIVING SYSTEMS |
DE102018121158A1 (en) * | 2018-08-30 | 2020-03-05 | Valeo Schalter Und Sensoren Gmbh | Ground sensing point method and driver support system configured to perform such a method |
-
2019
- 2019-09-12 DE DE102019213951.5A patent/DE102019213951A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014102762A1 (en) * | 2013-03-14 | 2014-09-18 | GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) | A system and method for improving the sensor vision of a vehicle in an autonomous driving mode |
DE102013019145A1 (en) * | 2013-11-15 | 2015-05-21 | Audi Ag | Method for operating a motor vehicle with environmental sensors and motor vehicle |
DE102014010272A1 (en) * | 2014-07-11 | 2015-01-15 | Daimler Ag | Method for determining a field of view of a detection unit of a vehicle |
DE102018105293A1 (en) * | 2017-03-08 | 2018-09-20 | GM Global Technology Operations LLC | METHOD AND DEVICE FOR A NETWORKED SCENE REPRESENTATION AND EXPANSION IN VEHICLE ENVIRONMENTS IN AUTONOMOUS DRIVING SYSTEMS |
DE102018121158A1 (en) * | 2018-08-30 | 2020-03-05 | Valeo Schalter Und Sensoren Gmbh | Ground sensing point method and driver support system configured to perform such a method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022114219A1 (en) | 2022-06-07 | 2023-12-07 | Audi Aktiengesellschaft | Method for operating a lane change assistance system and motor vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1920268B1 (en) | Method for the detection of a traffic zone | |
DE102010006828B4 (en) | Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle | |
DE102014013672B4 (en) | Method and system for securing autonomous or semi-autonomous operation of vehicles on a traffic route network | |
WO2021043507A1 (en) | Lateral control of a vehicle by means of environment data detected from other vehicles | |
DE102017116212A1 (en) | STREET APPROACH DETECTION WITH RETURN CAMERA | |
WO2014032904A1 (en) | Method and apparatus for identifying a position of a vehicle in a lane | |
DE112015001128T5 (en) | Display object information display device | |
DE102017201665A1 (en) | Method for integrating a dynamic object into a digital map of a highly automated vehicle (HAF) | |
WO2017202522A1 (en) | Method for providing vehicle trajectory information and method for determining the location of a pothole | |
DE102016210534A1 (en) | Method for classifying an environment of a vehicle | |
DE102021103149A1 (en) | METHOD AND DEVICE FOR DETERMINING THE OPTIMAL CROSSING LANE IN AN ASSISTED DRIVING SYSTEM | |
DE102016219503A1 (en) | Method and driver assistance system for detecting the intention of a pedestrian to cross an ego lane | |
DE102014215570A1 (en) | Car navigation system | |
WO2017102623A1 (en) | Method and device for predicting a movement of a road traffic participant in a traffic space | |
DE102021206187A1 (en) | System, control unit and method for determining a geofencing event of a vehicle | |
DE102018113314A1 (en) | Driving Assistance System | |
DE102016219124A1 (en) | Method and device for creating a dynamic hazard map | |
DE102021113651B3 (en) | System for sensor data fusion for environmental perception | |
DE102019213951A1 (en) | Method for minimizing coverage of a field of view of a sensor of a vehicle | |
DE102019216747A1 (en) | Method of providing an overlay map section | |
DE102018213378B4 (en) | Driver assistance system for a vehicle, vehicle with the same and driver assistance method for a vehicle | |
DE102019107279A1 (en) | Method and device for recognizing a traffic law violation by falling below a permissible distance between a following vehicle and a leading vehicle | |
DE102021207181B3 (en) | Method for automatically recognizing a right-before-left situation and motor vehicle | |
WO2023036545A1 (en) | Method and control circuit for checking whether a presently active driving mode is being operated within its odd, and system and back-end server | |
DE102008050456A1 (en) | Ego lane recognizing method for motor vehicle, involves validating transformed lines by removing of transformed lines, defining vertical line by main axis of camera, and comparing validated lines with lines of model to determine lane |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R081 | Change of applicant/patentee |
Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE |