DE102021208616A1 - Anordnung von infrastrukturseitiger Überwachungssensorik - Google Patents

Anordnung von infrastrukturseitiger Überwachungssensorik Download PDF

Info

Publication number
DE102021208616A1
DE102021208616A1 DE102021208616.0A DE102021208616A DE102021208616A1 DE 102021208616 A1 DE102021208616 A1 DE 102021208616A1 DE 102021208616 A DE102021208616 A DE 102021208616A DE 102021208616 A1 DE102021208616 A1 DE 102021208616A1
Authority
DE
Germany
Prior art keywords
model
sensors
sensor
candidate
infrastructure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102021208616.0A
Other languages
English (en)
Inventor
wird später genannt Erfinder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Mobility GmbH
Original Assignee
Siemens Mobility GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Mobility GmbH filed Critical Siemens Mobility GmbH
Priority to DE102021208616.0A priority Critical patent/DE102021208616A1/de
Publication of DE102021208616A1 publication Critical patent/DE102021208616A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es wird ein Verfahren zur Anordnung von infrastrukturseitigen Sensoren (S0, S1, S2, ..., SNS) in einem Überwachungsbereich (10) beschrieben. Bei dem Verfahren werden Sichtfelder (SF) von Kandidaten-Sensoren (S0, S1, S2, ..., SNS) an Kandidaten-Positionen auf Basis eines auf virtuellen Strahlen (R) basierenden Sensormodells (M) ermittelt. Es wird zudem ein 3D-Modell (3D-M) des Überwachungsbereichs (10) ermittelt. Weiterhin wird auf Basis der ermittelten Sichtfelder (SF) und dem 3D-Modell (3D-M) des Überwachungsbereichs (10) ein kombiniertes Modell ermittelt. Schließlich wird ein Auswahlverfahren durchgeführt, wobei für eine Überwachung des Überwachungsbereichs (10) geeignete Kandidaten-Sensoren (S0, S1, S2, ..., Sn) auf Basis des kombinierten Modells ausgewählt werden. Es wird auch eine Sensorpositionsermittlungseinrichtung (70) beschrieben. Außerdem wird ein infrastrukturseitiges Verkehrsüberwachungssystem beschrieben. Überdies wird ein autonomes Transportsystem beschrieben.

Description

  • Die Erfindung betrifft ein Verfahren zur Anordnung von infrastrukturseitigen Sensoren in einem Überwachungsbereich. Zudem betrifft die Erfindung eine Sensorpositionsermittlungseinrichtung. Weiterhin betrifft die Erfindung ein infrastrukturseitiges Verkehrsüberwachungsüberwachungssystem. Überdies betrifft die Erfindung ein autonomes Transportsystem.
  • Zunehmend werden Verkehrssituationen mit Hilfe von Sensorik überwacht, sei es, um beispielsweise Verkehrsverstöße zu dokumentieren, oder auch, um Informationen an autonome oder teilautonome Fahrzeuge zu übermitteln, die mit Hilfe dieser Informationen ihr Bild von der eigenen Umgebung vervollständigen bzw. erweitern und auf dieser Basis taktische Entscheidungen treffen. Von den Sensoren werden statische und vor allem bewegliche Objekte erfasst, insbesondere Verkehrsteilnehmer, wie zum Beispiel Fahrzeuge und Fußgänger. Dies geschieht mit dem Ziel, die effektive Reichweite der Wahrnehmung von automatisiert gesteuerten Fahrzeugen zu vergrößern und die Fahrzeuge dabei zu unterstützen, Objekte, die durch Hindernisse verdeckt sind, wahrzunehmen. Um die Informationen von der Sensorik zu erhalten, sind die Verkehrsteilnehmer mit V2X-Kommunikationsmitteln (V2X = Vehicle-to-everything = Kommunikation eines Fahrzeugs mit allen anderen Kommunikationsteilnehmern) und/oder einem automatisierten Steuerungssystem, abgekürzt mit ADS, ausgerüstet.
  • Einerseits ist es wünschenswert, einen Überwachungsbereich mit Sensoren möglichst vollständig abzudecken, um die Verkehrsteilnehmer umfassend informieren zu können und eine maximale Sicherheit für die Verkehrsteilnehmer zu erreichen. Andererseits sollte der Aufwand dafür möglichst niedrig sein, um Ressourcen zu sparen. Die sparsame Verwendung von Ressourcen ist notwendig, um bei limitierten Ressourcen, einen möglichst großen Anteil eines Verkehrssystems oder Transportsystems überwachen zu können. Wenn von optimaler Positionierung von Sensoren bzw. von Optimierung die Rede ist, geht es im Folgenden immer darum, mit möglichst wenig Sensoren einen Überwachungsbereich möglichst vollständig abzudecken bzw. zu erfassen.
  • Verfahren zur Ermittlung einer optimalen Positionierung von Überwachungssensorik, wie zum Beispiel Überwachungskameras in Innenräumen oder drahtlosen Sensornetzwerken in ausgedehnten Außenanlagen sind bisher auf die Ermittlung einer optimalen Sensorabdeckung in einer zweidimensionalen Umgebung mit zweidimensionalen Sensormodellen beschränkt.
  • Derartige Vorgehensweisen sind in V. Akbarzadeh, J. Levesque, C. Charles Gagne und M. Parizeau, „Efficient sensor placement optimization using gradient descent and probabilistic coverage, „Sensors (Switzerland), Bd. 14, Nr. 8, pp. 15525-15552, 2014, in A. Mavrinac und X. Chen, „Modeling coverage in camera networks: A survey, „International Journal of Computer Vision, Bd. 101, Nr. 1, pp. 205-226, 2013, in F. Geissler und R. Grafe, „Optimized sensor placement for dependable roadside infrastructures, „in 2019 IEEE Intelligent Transportation Systems Conference Proceedings, 2019 und in H. Tan, X. Hao, Y. Lv, „An approximate approach for area coverage in wireless sensor networks,“ Procedia Computer Science, Bd. 19, pp. 240-247, 2013 beschrieben.
  • Von den genannten Autoren beschreiben F. Geissler und R. Grafe die Optimierung einer Abdeckung eines Überwachungsbereichs durch infrastrukturseitige Sensoren mit Hilfe eines 2D-Sensorabdeckungsmodells.
  • Allerdings sind solche 2D-Sensorabdeckungsmodelle nicht ausreichend, um verlässliche Ergebnisse für eine beliebige Situation in der realen Welt zu erhalten, bei der eine Vielzahl von 3D-Hindernissen und eine Vielzahl von die Sicht verdeckenden Objekten vorhanden sind.
  • Es besteht also die Aufgabe, infrastrukturseitige Sensoren in 3D-Situationen effektiv und ressourcensparend einzusetzen.
  • Diese Aufgabe wird durch ein Verfahren zur Anordnung von infrastrukturseitigen Sensoren in einem Überwachungsbereich gemäß Patentanspruch 1, eine Sensorpositionsermittlungseinrichtung gemäß Patentanspruch 10, ein infrastrukturseitiges Verkehrsüberwachungssystem gemäß Patentanspruch 11 und ein autonomes Transportsystem gemäß Patentanspruch 12 gelöst.
  • Bei dem erfindungsgemäßen Verfahren zur Anordnung von infrastrukturseitigen Sensoren in einem Überwachungsbereich werden Sichtfelder von Kandidaten-Sensoren auf Basis eines auf virtuellen Strahlen basierenden Sensormodells ermittelt. Ein Überwachungsbereich umfasst einen von Verkehrsteilnehmern benutzten Bereich, vorzugsweise einen Straßenabschnitt, besonders bevorzugt eine Straßenkreuzung oder eine Einmündung. Ein auf virtuellen Strahlen basierendes Sensormodell wird auch als Raycasting-Modell bezeichnet und beschreibt ein Abtastverhalten eines Sensors im dreidimensionalen Raum. Bei dem Raycasting-Verfahren handelt es sich um eine Computergraphik-Technologie, bei der virtuelle Lichtstrahlen von einem Punkt bzw. einer Quelle in definierte Richtungen ausgesandt werden, um die Anwesenheit von Hindernissen längs der Sichtlinie jedes virtuellen Strahls in einer 3D-Szenerie zu ermitteln.
  • Eine solche Vorgehensweise ist in S. Manivasagam, S. Wang, K. Wong, W. Zeng, M. Sazanovich, S. Tan, B. Yang, W. C. Ma and R. Urtasun, „LiDARsim: Realistic LiDAR simulation by leveraging the real world,“ in Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2020 beschrieben.
  • Das Abtastverhalten der Kandidaten-Sensoren wird jedoch zusätzlich von der Beschaffenheit der dreidimensionalen Umgebung der Kandidaten-Sensoren bzw. des Überwachungsbereichs definiert bzw. limitiert. Hierzu muss das Sensormodell mit einem durch einen Benutzer spezifizierten Umgebungsmodell des Überwachungsbereichs kombiniert werden. Dafür wird ein 3D-Modell des Überwachungsbereichs ermittelt.
  • Weiterhin wird auf Basis der ermittelten Sichtfelder der Sensoren und dem 3D-Modell des Überwachungsbereichs ein kombiniertes Modell ermittelt. Das kombinierte Modell kombiniert die Fähigkeiten der Kandidaten-Sensoren mit dem dreidimensionalen Überwachungsszenario.
  • Zur Erzeugung des kombinierten Modells wird bevorzugt ein Raster aus Zielpunkten für Sensoren in dem Überwachungsbereich festgelegt. Die Zielpunkte decken den Überwachungsbereich ab. Die Zielpunkte weisen jeweils eine Detektionsreichweite auf. Anders ausgedrückt, sind den Zielpunkten jeweils Zielbereiche zugeordnet, die durch die erwähnte Detektionsreichweite definiert sind. Fällt ein virtueller Sensorstrahl eines bestimmten Sensors in einen solchen Zielbereich, so gilt der Zielpunkt als von dem betreffenden Sensor erfasst. Wird ein sogenanntes Raycasting-Modell verwendet, so bildet jede Schicht von Sensorstrahlen einen vollständigen Kreis auf dem Boden und wenn alle Schichten kombiniert werden, ergibt sich in der zweidimensionalen Darstellung eine Serie von konzentrischen Kreisen.
  • Ein Objekt bzw. ein Zielpunkt wird als detektiert angesehen, wenn mindestens einer der konzentrischen Kreise seinen Zielbereich tangiert oder schneidet. Ist der Abstand zwischen zwei konzentrischen Kreisen der virtuellen Strahlen zu groß, so kann es passieren, dass benachbarte konzentrische Kreise den Zielbereich nicht treffen, und das Objekt bzw. der Zielpunkt wird in diesem Fall als nicht detektiert betrachtet. Im Rahmen der Erzeugung des kombinierten Modells wird bevorzugt eine Sichtbarkeits-Matrix auf Basis des Sensormodells, des 3D-Modells und des Rasters ermittelt. Die Sichtbarkeits-Matrix gibt an, ob ein jeweiliger Kandidaten-Sensor, der an einer vorbestimmten Kandidaten-Position angeordnet ist, einen jeweiligen Zielpunkt erfasst oder nicht.
  • Schließlich wird ein Auswahlverfahren durchgeführt, wobei eine geeignete Anzahl von Sensoren und deren Positionen auf Basis des kombinierten Modells aus den Kandidaten-Sensoren ausgewählt werden. Als „geeignet“ sollen Sensoren und deren verstanden werden, die vorbestimmte Eignungskriterien, welche die Abdeckung des Überwachungsbereichs und die Gesamtzahl der Sensoren betreffen erfüllen. Ein solches Eignungskriterium kann zum Beispiel eine optimale Anzahl, d.h. eine minimale Anzahl von Sensoren für die Abdeckung eines Überwachungsbereichs umfassen.
  • Bei dieser bevorzugten Variante umfasst das Auswahlverfahren ein Optimierungsverfahren, wobei eine optimale Anzahl von Sensoren und deren Positionen auf Basis des kombinierten Modells aus den Kandidaten-Sensoren ausgewählt werden. Diese optimalen Sensoren stellen eine Teilmenge der Gesamtzahl von Kandidaten-Sensoren da, die zur Erfassung des Überwachungsbereichs ausgewählt wurden.
  • Ein derartiges Optimierungsverfahren ist in Roshan Vijay et al., „Optimal Placement of Roadside Infrastructure Sensors towards Safer Autonomous Vehicle Deployments“, beschrieben.
  • Das Optimierungsverfahren arbeitet vorzugsweise auf Basis des Konzepts des binären Integer-Programmierens, wobei binäre Integer-Werte für Entscheidungsvariablen genutzt werden. Diese Art der Programmierung erlaubt es einem Optimierungsalgorithmus, mit einem großen Pool an Kandidaten-Sensoren zu starten, bevor diese Anzahl immer weiter reduziert wird, bis ein optimaler Satz von Sensoren erreicht ist.
  • Ein weiterer Aspekt einer solchen Optimierung betrifft die sogenannte Regularisierung, welche die Hinzufügung von Informationen beinhaltet, um eine Überanpassung zu vermeiden, wenn das Optimierungsproblem gelöst wird. In diesem Fall wird eine Regularisierung genutzt, um zu verhindern, dass Sensoren zu eng beieinander positioniert werden und zu erreichen, dass eine möglichst niedrige Anzahl von Sensoren ermittelt wird.
  • Der Regularisierungsterm berücksichtigt den Abstand zwischen den einzelnen Kandidaten-Sensoren und dem Optimierungsalgorithmus. Mit dem Regularisierungsterm wird ein Kostenterm hinzugefügt, der erfüllt werden muss, um so eine redundante Positionierung von Sensoren zu vermeiden.
  • Bevorzugt weisen sämtliche Kandidaten-Sensoren dieselben technischen Eigenschaften auf. Vorteilhaft lässt sich das Optimierungsverfahren bei dieser Variante besonders einfach realisieren. Sind unterschiedliche Sensoren mit unterschiedlichen Eigenschaften einsetzbar, so erhöht sich der Rechenaufwand bei der Optimierung.
  • Weiterhin sind die verwendeten Kandidaten-Sensoren bei dem Auswahlverfahren bzw. Optimierungsverfahren bevorzugt in einem festen Raster, vorzugsweise längs der Ränder eines Straßennetzes angeordnet. Vorteilhaft beschränkt sich die Optimierung nur auf die Anzahl bzw. die optimale Besetzung eines Teils der vorbestimmten Positionen, wodurch der Aufwand bei der Auswahl bzw. Optimierung im Vergleich zu einer beliebigen Positionierung der Sensoren reduziert ist. Eine Änderung der Positionen der Sensoren in dem Raster ist also bei dieser Variante nicht vorgesehen.
  • Als Sensoren werden bevorzugt 360°-LiDAR-Sensoren mit einem horizontalen Sichtfeld eingesetzt. Diese Sensoren vereinfachen den Optimierungsprozess aufgrund des einfach zu modellierenden Sichtfelds.
  • Werden Sensoren mit einem stark gerichteten Sichtfeld, wie zum Beispiel Radar, Kameras, usw. verwendet, so werden viele Sensoren mit unterschiedlichen Orientierungen benötigt, um einen vorbestimmten Bereich abzudecken.
  • Vorteilhaft werden 3D-Hindernisse bei der Positionierung von Sensoren im Straßenverkehrsraum berücksichtigt, so dass ein effektiver Einsatz von einer auf das Notwendige reduzierten Anzahl von Sensoren mit einer verbesserten Abdeckung eines Überwachungsbereichs verbunden werden kann. Der Raycasting-Ansatz mit virtuellen Strahlen beschreibt das Verhalten der Sensoren sehr realistisch. Insbesondere werden Abschattungen durch 3D-Objekte oder Bodenunebenheiten im Überwachungsbereich berücksichtigt. Für die Erzeugung des 3D-Modells des Überwachungsbereichs können Standard-3D-Modellierungswerkzeuge genutzt werden, so dass der Aufwand zur Realisierung des erfindungsgemäßen Verfahrens relativ gering ist.
  • Die erfindungsgemäße Sensorpositionsermittlungseinrichtung weist eine Sichtfeldermittlungseinheit zum Ermitteln von Sichtfeldern von Kandidaten-Sensoren an Kandidaten-Positionen auf Basis eines auf virtuellen Strahlen basierenden Sensormodells auf. Teil der erfindungsgemäßen Sensorpositionsermittlungseinrichtung ist auch eine 3D-Modellermittlungseinheit zum Ermitteln eines 3D-Modells eines Überwachungsbereichs. Die erfindungsgemäße Sensorpositionsermittlungseinrichtung umfasst auch eine Kombinationsmodellerzeugungseinheit zum Erzeugen eines kombinierten Modells aus den ermittelten Sichtfeldern mit dem 3D-Modell des Überwachungsbereichs.
  • Die Kombinationsmodellerzeugungseinheit umfasst bevorzugt eine Rasterfestlegungseinheit zum automatisierten Festlegen eines Rasters aus Zielpunkten für Sensoren in dem Überwachungsbereich. Teil der Kombinationsmodellerzeugungseinheit ist auch bevorzugt eine Matrixermittlungseinheit zum Ermitteln einer Sichtbarkeits-Matrix auf Basis des Sensormodells, des 3D-Modells und des Rasters aus Zielpunkten für Sensoren in dem Überwachungsbereich. Die Sichtbarkeits-Matrix gibt an, ob ein Kandidaten-Sensor an einer vorbestimmten Kandidaten-Position einen Zielpunkt erfasst oder nicht.
  • Weiterhin umfasst die erfindungsgemäße Sensorpositionsermittlungseinrichtung eine Auswahleinheit, vorzugsweise umfassend eine Optimierungseinheit zum Durchführen eines Auswahlverfahrens, vorzugsweise eines Optimierungsverfahrens, wobei eine geeignete, vorzugsweise eine optimale Anzahl von Kandidaten-Sensoren auf Basis des kombinierten Modells sowie deren Positionen aus einer Gesamtheit von Kandidaten-Sensoren und deren Positionen ausgewählt werden. Die erfindungsgemäße Sensorpositionsermittlungseinrichtung teilt die Vorteile des erfindungsgemäßen Verfahren zur Anordnung von infrastrukturseitigen Sensoren in einem Überwachungsbereich.
  • Das erfindungsgemäße infrastrukturseitige Verkehrsüberwachungssystem umfasst eine Mehrzahl von Sensoreinheiten zur Erfassung von Sensordaten von einem Überwachungsbereich. Zudem umfasst das erfindungsgemäße infrastrukturseitige Verkehrsüberwachungssystem eine erfindungsgemäße Sensorpositionsermittlungseinrichtung. Vorteilhaft ist das erfindungsgemäße Verkehrsüberwachungssystem auf Ressourceneffizienz und Bereichsabdeckung durch die Sensorik hin optimiert. Das erfindungsgemäße infrastrukturseitige Verkehrsüberwachungssystem teilt die Vorteile der erfindungsgemäßen Sensorpositionsermittlungseinrichtung.
  • Das erfindungsgemäße autonome Transportsystem weist mindestens ein zumindest teilautonom gesteuertes Fahrzeug und ein erfindungsgemäßes infrastrukturseitiges Verkehrsüberwachungssystem auf. Das zumindest teilautonom gesteuerte Fahrzeug ist dazu eingerichtet, von dem infrastrukturseitigen Verkehrsüberwachungssystem erzeugte Sensordaten zu empfangen und auf Basis dieser Daten eine zumindest teilautonome Steuerung durchzuführen. Das erfindungsgemäße autonome Transportsystem teilt die Vorteile des infrastrukturseitigen Verkehrsüberwachungssystems.
  • Einige Komponenten der erfindungsgemäßen Sensorpositionsermittlungseinrichtung, des erfindungsgemäßen infrastrukturseitigen Verkehrsüberwachungssystems und des erfindungsgemäßen autonomen Transportsystems können zum überwiegenden Teil in Form von Softwarekomponenten ausgebildet sein. Dies betrifft insbesondere Teile der Sichtfeldermittlungseinheit, der 3D-Modellermittlungseinheit, der Kombinationsmodellermittlungseinheit und der Auswahleinheit bzw. der Optimierungseinheit. Grundsätzlich können diese Komponenten aber auch zum Teil, insbesondere wenn es um besonders schnelle Berechnungen geht, in Form von softwareunterstützter Hardware, beispielsweise FPGAs oder dergleichen, realisiert sein. Ebenso können die benötigten Schnittstellen, beispielsweise wenn es nur um eine Übernahme von Daten aus anderen Softwarekomponenten geht als Softwareschnittstellen ausgebildet sein. Sie können aber auch als hardwaremäßig aufgebaute Schnittstellen ausgebildet sein, die durch geeignete Software angesteuert werden.
  • Eine weitgehend softwaremäßige Realisierung hat den Vorteil, dass auch schon bisher in einem autonomen Transportsystem vorhandene Rechnersysteme nach einer eventuellen Ergänzung durch zusätzliche Hardwareelemente auf einfache Weise durch ein Software-Update nachgerüstet werden können, um auf die erfindungsgemäße Weise zu arbeiten. Insofern wird die Aufgabe auch durch ein entsprechendes Computerprogrammprodukt mit einem Computerprogramm gelöst, welches direkt in eine Speichereinrichtung eines solchen Transportsystems ladbar ist, mit Programmabschnitten, um die durch Software realisierbaren Schritte des erfindungsgemäßen Verfahrens auszuführen, wenn das Computerprogramm in dem Transportsystem ausgeführt wird.
  • Ein solches Computerprogrammprodukt kann neben dem Computerprogramm gegebenenfalls zusätzliche Bestandteile, wie z.B. eine Dokumentation und/oder zusätzliche Komponenten, auch Hardware-Komponenten, wie z.B. Hardware-Schlüssel (Dongles etc.) zur Nutzung der Software, umfassen.
  • Zum Transport zur Speichereinrichtung des Rechnersystems und/oder zur Speicherung an dem Rechnersystem kann ein computerlesbares Medium, beispielsweise ein Memorystick, eine Festplatte oder ein sonstiger transportabler oder fest eingebauter Datenträger dienen, auf welchem die von einer Rechnereinheit einlesbaren und ausführbaren Programmabschnitte des Computerprogramms gespeichert sind. Die Rechnereinheit kann z.B. hierzu einen oder mehrere zusammenarbeitende Mikroprozessoren oder dergleichen aufweisen.
  • Die abhängigen Ansprüche sowie die nachfolgende Beschreibung enthalten jeweils besonders vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung. Dabei können insbesondere die Ansprüche einer Anspruchskategorie auch analog zu den abhängigen Ansprüchen einer anderen Anspruchskategorie und deren Beschreibungsteilen weitergebildet sein. Zudem können im Rahmen der Erfindung die verschiedenen Merkmale unterschiedlicher Ausführungsbeispiele und Ansprüche auch zu neuen Ausführungsbeispielen kombiniert werden.
  • In einer Ausgestaltung des erfindungsgemäßen Verfahrens zur Anordnung von infrastrukturseitigen Sensoren in einem Überwachungsbereich basiert das Sensormodell auf einem Raycasting-Verfahren. Mit einem solchen Raycasting-Verfahren kann das Verhalten von Sensoren realistisch simuliert werden.
  • In einer Variante des erfindungsgemäßen Verfahrens zur Anordnung von infrastrukturseitigen Sensoren in einem Überwachungsbereich werden bei dem Ermitteln des Sichtfelds virtuelle Strahlen von einem Kandidaten-Sensor aus in definierte Richtungen ausgesandt, um die Existenz von Hindernissen längs der Sichtlinie jedes virtuellen Strahls innerhalb des 3D-Modells zu ermitteln. Vorteilhaft lassen sich für Sensoren nicht erfassbare Bereiche, die sich im Schatten von dreidimensionalen Objekten befinden, ermitteln und in einem Auswahlverfahren oder Optimierungsverfahren möglichst weitgehend reduzieren.
  • In einer Variante des erfindungsgemäßen Verfahrens zur Anordnung von infrastrukturseitigen Sensoren in einem Überwachungsbereich werden zur Ermittlung der Anzahl der virtuellen Strahlen der Erfassungsbereich des Kandidaten-Sensors und die Auflösung des jeweiligen Kandidaten-Sensors berücksichtigt. Vorteilhaft werden technische Limitierungen der Sensoren bei der Auswahl oder Optimierung der Platzierung der Sensoren mitberücksichtigt, so dass eine Sensorabdeckung exakter vorausberechnet werden kann.
  • In einer Ausgestaltung des erfindungsgemäßen Verfahrens zur Anordnung von infrastrukturseitigen Sensoren in einem Überwachungsbereich wird das 3D-Modell in zwei Schritten ermittelt.
  • Bei dem ersten Schritt wird nur die Geometrie der Verkehrswege berücksichtigt und bei dem zweiten Schritt werden auch 3D-Objekte und potenzielle Abschattungen zusätzlich zu der Geometrie der Verkehrswege berücksichtigt. Auf diese Weise werden nicht nur die für den Sensor sichtbaren Punkte, sondern auch die abgeschatteten Punkte ermittelt, die sichtbar wären, wenn ein Hindernis nicht vorhanden wäre.
  • Bevorzugt wird die Position der Zielpunkte in Abhängigkeit von
    • - dem 3D-Modell des Überwachungsbereichs und
    • - der Geometrie der Verkehrswege
    festgelegt.
  • Vorteilhaft können Bereiche, die durch Hindernisse teilweise abgeschattet werden, gezielt ausgewählt werden. Außerdem ist es sinnvoll, die Zielpunkte so zu wählen, dass relevante Bereiche der Verkehrswege in dem Überwachungsbereich mit abgedeckt sind, um einen sicheren Verkehrsbetrieb zu ermöglichen.
  • Bevorzugt werden also die Verkehrswege flächendeckend mit Zielpunkten abgedeckt, um die für Fahrzeuge relevantesten Bereiche abzudecken. Andererseits können auch 3D-Objekte vorhanden sein, die die freie Sicht der Sensoren behindern und relevant für die Positionierung der Sensoren sind.
  • In einer Variante des erfindungsgemäßen Verfahrens zur Anordnung von infrastrukturseitigen Sensoren in einem Überwachungsbereich wird den Zielpunkten eine Detektionsreichweite zugeordnet, um zu ermitteln, ob ein Zielpunkt von einem Kandidaten-Sensor erfassbar ist oder nicht. Wie bereits erwähnt, ist damit jedem Zielpunkt ein Zielbereich zugeordnet, wobei bei einer Überschneidung eines virtuellen Strahls mit dem Zielbereich der betreffende Zielpunkt als erfasst eingestuft wird.
  • Wie bereits erwähnt, wird bevorzugt als Grundlage zur Auswahl oder Optimierung der Sensoren und deren Positionen eine Sichtbarkeits-Matrix erzeugt, welche die Sichtbarkeit oder Nichtsichtbarkeit einzelner Zielpunkte für einzelne Kandidaten-Sensoren wiedergibt. Wie bereits erwähnt, können vorteilhaft Optimierungsverfahren angewendet werden, die auf dem Konzept des binären Integer-Programmierens beruhen, wobei binäre Integer-Werte für Entscheidungsvariablen genutzt werden. Diese Verfahren sind besonders effizient, um geeignete Sensoren für die Überwachung zu ermitteln.
  • In einer Variante des erfindungsgemäßen Verfahrens werden bei der Auswahl bzw. der Optimierung eine der folgenden Kombinationen von Kriterien zugrunde gelegt:
    • - minimale Anzahl von Sensoren bei vorbestimmter Mindestabdeckung des Überwachungsbereichs,
    • - maximal mögliche Abdeckung des Überwachungsbereichs mit vorbestimmter Anzahl von Sensoren.
  • Bei der Anwendung des Kriteriums der minimalen Anzahl von Sensoren ergibt sich ein optimierter Ressourcenverbrauch bei dem Einsatz der Überwachungssensorik. Hingegen ermöglicht die Optimierung hinsichtlich einer maximal möglichen Abdeckung eine optimale Überwachung des Verkehrs.
  • Die Erfindung wird im Folgenden unter Hinweis auf die beigefügten Figuren anhand von Ausführungsbeispielen noch einmal näher erläutert. Es zeigen:
    • 1 eine schematische Darstellung eines Verkehrsszenarios mit infrastrukturseitigen Sensoren zur Überwachung der Verkehrssituation,
    • 2 eine schematische Darstellung eines Sensormodells,
    • 3 eine schematische Darstellung eines Sensor-Raycastmodells mit einem Musterhindernis,
    • 4 eine schematische Darstellung eines Rasters aus Zielpunkten in einem Überwachungsbereich,
    • 5 eine schematische Darstellung einer Detektion eines Zielpunkts in einem Teilbereich des in 4 gezeigten Rasters aus Zielpunkten,
    • 6 ein Flussdiagramm, welches ein Verfahren zur Anordnung von infrastrukturseitigen Sensoren in einem Überwachungsbereich gemäß einem Ausführungsbeispiel der Erfindung veranschaulicht,
    • 7 eine schematische Darstellung einer Sensorpositionsermittlungseinrichtung gemäß einem Ausführungsbeispiel der Erfindung,
    • 8 eine schematische Darstellung einer optimierten Sensoranordnung in einem Überwachungsbereich.
  • In 1 ist ein Überwachungsbereich 10 für Sensoren gezeigt. Der Überwachungsbereich 10 umfasst eine Einmündung, die von Randstreifen 1 eingerahmt ist. Auf den Randstreifen 1 lassen sich Sensoren S0, S1, S2, S3 positionieren, mit denen der Fahrbereich überwacht wird. In dem Randbereich befinden sich außerdem unterschiedliche Hindernisse, wie zum Beispiel Ampeln A, Straßenschilder oder Bäume B, die zu überwachende Bereiche verdecken können. Auf den Randstreifen können die Sensoren S0, S1, S2, S3 mit Hilfe des bereits beschriebenen erfindungsgemäßen Verfahrens positioniert werden, um den Straßenverkehr im Überwachungsbereich 10 zu überwachen.
  • In 2 ist ein auf 3D-Raycasting basierendes Sensormodell für einen Überwachungssensor S0 dargestellt. Der Überwachungssensor S0, beispielsweise ein LiDAR-Sensor, weist einen dreidimensionalen Abtastbereich auf, den er mit seinen Sensorstrahlen R abtasten bzw. erfassen kann. In 2 ist auch ein Ausschnitt einer Bodenfläche BF eingezeichnet, den der Sensor S0 überwachen kann. Dieser Ausschnitt wird durch die Reichweite des Sensors S0 und den Sensorwinkel bzw. Öffnungswinkel des Überwachungssensor S0 definiert. Die Anzahl der Raycast-Strahlen R ist abhängig von dem spezifischen Sensorwinkel und der Auflösung des Überwachungssensors S0.
  • In 3 ist eine Draufsicht auf eine Bodenfläche eines Überwachungsbereichs gezeigt. Die konzentrischen Kreise werden durch Raycast-Punkte RP definiert, die an diesen Stellen Kontakt mit der Bodenfläche BF haben. In 3 ist auch ein Hindernis H dargestellt. Hinter dem Hindernis H bildet sich ein Schatten, in dem keine Raycast-Punkte RP vorhanden sind. Das Raycast-Modell wird verwendet, um eine sogenannte Sichtbarkeits-Matrix eines kombinierten Modells in zwei Schritten zu erzeugen. Zunächst wird ein Raycasting durchgeführt, bei dem nur die Straßengeometrie berücksichtigt wird und in einem zweiten Schritt werden neben der Straßengeometrie auch 3D-Objekte und potenzielle Abschattungen berücksichtigt. Das Raycasting wird für beide Schritte genutzt. Auf diese Weise werden nicht nur Punkte ermittelt, die für einen Sensor erfassbar sind, sondern auch Punkte, die abgeschattet sind, aber sichtbar wären, wenn ein Hindernis nicht vorhanden wäre.
  • In 4 ist ein Überwachungsbereich 10 mit einem Raster aus sogenannten Zielpunkten TP dargestellt. Den einzelnen Zielpunkten TP sind kreisförmige Bereiche zugeordnet, die die Detektionsreichweite eines Zielpunkts TP charakterisieren. Durchdringt oder berührt nun ein Sensorstrahl bzw. ein zu einem Sensor konzentrischer Kreis aus Raycast-Punkten RP einen solchen kreisförmigen Bereich eines Zielpunkts TP, so befindet er sich innerhalb der Detektionsreichweite des Zielpunkts TP und der betreffende Zielpunkt TP gilt als erfasst.
  • In 5 ist eine schematische Darstellung 50 einer Detektion eines Zielpunkts TP des in 4 gezeigten Rasters aus Zielpunkten TP veranschaulicht. Ein Sensor S0 emittiert Sensorstrahlen, die als konzentrische Kreise C1, C2 dargestellt werden. Die konzentrischen Kreise C1, C2 umfassen sogenannte Raycast-Punkte RP. Links im Bild sind beispielshaft einige Zielpunkte TP dargestellt, denen jeweils ein durch einen gestrichelt gezeichneten konzentrischen Kreis dargestellter Zielbereich TA zugeordnet ist. Schneidet oder tangiert nun mindestens einer der konzentrische Kreise C1, C2 der Sensorstrahlen des Sensors S0 einen Zielbereich TA eines Zielpunkts TP, so gilt der Zielpunkt TP als durch den Sensor S0 detektierbar.
  • In 6 ist ein Flussdiagramm gezeigt, welches ein Verfahren zur Anordnung von infrastrukturseitigen Sensoren in einem Überwachungsbereich veranschaulicht.
  • Bei dem Schritt 6.1 werden zunächst für verfügbare Sensoren S0, S1, ..., SNS jeweils ein Sichtfeld festgelegt und ein auf virtuellen Strahlen basierendes Sensormodell M erzeugt.
  • Bei dem Schritt 6.II wird ein 3D-Modell 3D-M des Überwachungsbereichs erzeugt. Dieses 3D-Modell 3D-M umfasst die Bodenfläche BF des Überwachungsbereichs 10, den Straßenverlauf sowie 3D-Objekte A, B in dem Überwachungsbereich 10.
  • Bei dem Schritt 6.III wird ein Raster aus Zielpunkten TP für Sensoren, wie es bereits in 4 und ausschnittsweise in 5 gezeigt ist, automatisiert erzeugt. Die Zielpunkte TP decken den Straßenbereich des Überwachungsbereichs 10 ab.
  • Bei dem Schritt 6.IV wird eine Sichtbarkeits-Matrix VM erzeugt. Die Sichtbarkeits-Matrix VM gibt an, ob einzelne Zielpunkte TP durch Sensorstrahlen R jedes der einzelnen Sensoren S0, S1, S2, ..., SNS getroffen werden oder nicht.
  • Eine solche Sichtbarkeits-Matrix VM kann wie folgt aussehen:
    t0 t1 t2 t3 ... tNT
    S0 0 1 1 1 1
    S1 1 1 1 0 0
    S2 1 1 1 0 1
    S3 0 1 1 0 0
    ... 1
    1
    1
    SNS 0
  • In der Spalte links sind Kandidaten-Sensoren S0, S1, S2, ..., SNS angegeben, wobei NS die maximale Anzahl der Kandidaten-sensoren angibt. In der oberen Zeile sind die Zielpunkte t0, ..., tNT dargestellt, wobei NT die Anzahl der Zielpunkte TP angibt. Ein Wert „0“ in einer Zelle bedeutet, dass ein Kandidaten-Sensor einen zugeordneten Zielpunkt nicht erfassen kann. Ein Wert „1“ in einer Zelle bedeutet, dass ein Sensor einen zugeordneten Zielpunkt erfassen kann.
  • Die Sichtbarkeits-Matrix VM umfasst alle Kandidaten-Sensoren für eine Optimierung. Die Sichtbarkeits-Matrix VM wird dann bei dem Schritt 6.V als Grundlage für ein Optimierungsverfahren genutzt, bei dem eine Teilmenge von n Sensoren der Kandidaten-Sensoren S0, S1, S2, ..., SNS ausgewählt werden, die das Optimierungsproblem am besten lösen. Dabei ist n die optimale Anzahl der eingesetzten Sensoren. Beispielsweise wird als Randbedingung für das Optimierungsproblem vorgegeben, dass 100 % des Straßenbereichs, mithin alle Zielpunkte TP erfasst werden müssen und die Anzahl der Sensoren S0, S1, S2, ..., Sn möglichst klein sein sollte.
  • Schließlich erfolgt bei dem Schritt 6.VI eine Darstellung der Positionierung P der ausgewählten Sensoren S0, S1, S2, ..., Sn in dem Überwachungsbereich 10. Eine solche Darstellung ist in 8 gezeigt.
    In 7 ist eine Sensorpositionsermittlungseinrichtung 70 schematisch dargestellt. Die Sensorpositionsermittlungseinrichtung 70 umfasst eine Sichtfeldermittlungseinheit 71 zum Ermitteln eines Sichtfelds eines Sensors auf Basis eines auf virtuellen Strahlen basierenden Sensormodells. Hierfür erhält die Sichtfeldermittlungseinheit 71 Daten hinsichtlich verfügbarer Sensoren S0, S1, S2, ..., SNS und deren Sichtfeld und Auflösung. Die Sichtfeldermittlungseinheit 71 erzeugt auf der Basis dieser Daten eine Art Sensorstrahlenfeld als Sensormodell, welches die Reichweite und Auflösung der Sensoren wiedergeben. Weiterhin werden topographische Information BF sowie Objektinformationen ○ an eine 3D-Modellermittlungseinheit 72 übermittelt, die dazu eingerichtet ist, ein 3D-Modell 3D-M eines Überwachungsbereichs zu erzeugen. Ein solches 3D-Modell 3D-M umfasst die Bodenfläche BF des Überwachungsbereichs 10, den Straßenverlauf und die 3D-Objekte ○ in dem Überwachungsbereich 10. Das ermittelte 3D-Modell 3D-M wird an eine Rasterfestlegungseinheit 73 übermittelt, welche dazu eingerichtet ist, ein Raster aus Zielpunkten TP für Sensoren automatisiert festzulegen. Jedem der Zielpunkte TP wird ein Detektionsbereich zugeordnet. Kreuzt ein virtueller Strahl eines Sensors einen Detektionsbereich, so gilt der betreffende Zielpunkt TP als sichtbar für den betreffenden Sensor.
  • Teil der Sensorpositionsermittlungseinheit 70 ist auch eine Matrixermittlungseinheit 74, welche dazu eingerichtet ist, eine Sichtbarkeits-Matrix VM auf Basis des Sensormodells M, des 3D-Modells 3D-M und des Rasters zu ermitteln. Die Sichtbarkeits-Matrix VM gibt an, ob ein Kandidaten-Sensor S0, S1, S2, ..., SNS an einer vorbestimmten Kandidaten-Position einen Zielpunkt erfasst oder nicht.
  • Die Sensorpositionsermittlungseinheit 70 umfasst auch eine Auswahleinheit bzw. in diesem konkreten Ausführungsbeispiel eine Optimierungseinheit 75 zum Durchführen eines Optimierungsverfahrens auf Basis der Sichtbarkeits-Matrix VM. Bei dem Optimierungsverfahren werden optimierte Positionen P für die Sensoren S0, S1, S2, ..., SNS ermittelt und deren Anzahl bei möglichst vollständiger Abdeckung des Überwachungsbereichs 10 so klein wie möglich gehalten. Wie bereits erwähnt, kann die Position der Kandidaten-Sensoren auch fest vorgegeben sein. In diesem Fall wird im Rahmen des Optimierungsverfahren eine möglichst kleine Anzahl von Kandidaten-Sensoren ausgewählt, die den Überwachungsbereich abdecken. Die Darstellung der Positionen P der ausgewählten Sensoren S0, S1, S2, ..., Sn wird über eine Ausgabeschnittstelle 76, beispielsweise eine Anzeige 76, an einen Benutzer ausgegeben.
  • In 8 ist das Ergebnis des im Zusammenhang mit 6 und 7 erwähnten Optimierungsprozesses dargestellt. Die Sensoren S0, S1, S2, ..., Sn (n hat in diesem Ausführungsbeispiel den Wert 10) sind so verteilt, dass der gesamte Überwachungsbereich 10 sensoriell erfasst werden kann, und die Anzahl der Sensoren ist minimiert.
  • Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei den vorbeschriebenen Verfahren und Vorrichtungen lediglich um bevorzugte Ausführungsbeispiele der Erfindung handelt und dass die Erfindung vom Fachmann variiert werden kann, ohne den Bereich der Erfindung zu verlassen, soweit er durch die Ansprüche vorgegeben ist. Es wird der Vollständigkeit halber auch darauf hingewiesen, dass die Verwendung der unbestimmten Artikel „ein“ bzw. „eine“ nicht ausschließt, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Ebenso schließt der Begriff „Einheit“ nicht aus, dass diese aus mehreren Komponenten besteht, die gegebenenfalls auch räumlich verteilt sein können.

Claims (14)

  1. Verfahren zur Anordnung von infrastrukturseitigen Sensoren (S0, S1, S2, ..., SNS) in einem Überwachungsbereich (10), aufweisend die Schritte: - Ermitteln von Sichtfeldern (SF) von Kandidaten-Sensoren (S0, S1, S2, ..., SNS) an Kandidaten-Positionen auf Basis eines auf virtuellen Strahlen (R) basierenden Sensormodells (M), - Ermitteln eines 3D-Modells (3D-M) des Überwachungsbereichs (10) , - Erzeugen eines kombinierten Modells auf Basis der ermittelten Sichtfelder (SF) und dem 3D-Modell (3D-M) des Überwachungsbereichs (10), - Durchführen eines Auswahlverfahrens, wobei für die Überwachung des Überwachungsbereichs (10) geeignete Kandidaten-Sensoren (S0, S1, S2, ..., Sn) auf Basis des kombinierten Modells ausgewählt werden.
  2. Verfahren nach Anspruch 1, wobei das Erzeugen des kombinierten Modells umfasst: - automatisiertes Festlegen eines Rasters aus Zielpunkten (TP, t0, t1, t2, ..., tNT) für Sensoren (S0, S1, S2, ..., SNS) in dem Überwachungsbereich (10), - Ermitteln einer Sichtbarkeits-Matrix (VM) auf Basis des Sensormodells (M), des 3D-Modells (3D-M) und des Rasters, welche angibt, ob ein Kandidaten-Sensor (S0, S1, S2, ..., SNS) an einer vorbestimmten Kandidaten-Position einen Zielpunkt (TP, t0, t1, t2, ..., tNT) erfasst oder nicht.
  3. Verfahren nach Anspruch 1 oder 2, wobei das Sensormodell (M) auf einem Raycasting-Verfahren basiert.
  4. Verfahren nach einem der vorstehenden Ansprüche, wobei bei dem Ermitteln der Sichtfelder (SF) virtuelle Strahlen (R) von einem Kandidaten-Sensor (S0, S1, S2, ..., SNS) aus in definierte Richtungen ausgesandt werden, um die Existenz von Hindernissen (A, B) längs der Sichtlinie jedes virtuellen Strahls (R) innerhalb des 3D-Modells (3D-M) zu ermitteln.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei zur Ermittlung einer Anzahl der virtuellen Strahlen (R) der Erfassungsbereich der Kandidaten-Sensoren (S0, S1, S2, ..., SNS) und die Auflösung der Kandidaten-Sensoren (S0, S1, S2, ..., SNS) berücksichtigt werden.
  6. Verfahren nach einem der vorstehenden Ansprüche, wobei das 3D-Modell (3D-M) in zwei Schritten ermittelt wird, wobei - bei dem ersten Schritt nur die Geometrie der Verkehrswege im Überwachungsbereich (10) berücksichtigt wird und - bei dem zweiten Schritt auch 3D-Objekte (A, B) und potentielle Abschattungen zusätzlich zu der Geometrie der Verkehrswege berücksichtigt werden.
  7. Verfahren nach Anspruch 6, wobei die Position der Zielpunkte (TP, t0, t1, t2, ..., tNT) in Abhängigkeit von - dem 3D-Modell (3D-M) und - der Geometrie der Verkehrswege festgelegt wird.
  8. Verfahren nach Anspruch 7, wobei den Zielpunkten (TP, t0, t1, t2, ..., tNT) eine Detektionsreichweite zugeordnet wird, um zu ermitteln, ob ein Zielpunkt (TP, t0, t1, t2, ..., tNT) von einem Kandidaten-Sensor (S0, S1, S2, ..., SSN) erfassbar ist oder nicht.
  9. Verfahren nach einem der vorstehenden Ansprüche, wobei bei der Auswahl geeigneter Kandidaten-Sensoren (S0, S1, S2, ..., Sn) eine der folgenden Kombinationen von Kriterien zugrunde gelegt werden: - minimale Anzahl von Sensoren (S0, S1, S2, ..., SNS) bei einer vorbestimmten Mindestabdeckung des Überwachungsbereichs (10), - maximal mögliche Abdeckung des Überwachungsbereichs (10) mit einer vorbestimmten Anzahl von Sensoren (S0, S1, S2, ..., SNS)
  10. Sensorpositionsermittlungseinrichtung (70), aufweisend: - Ermitteln von Sichtfeldern (SF) von Kandidaten-Sensoren (S0, S1, S2, ..., SNS) an Kandidaten-Positionen auf Basis eines auf virtuellen Strahlen (R) basierenden Sensormodells (M) - eine 3D-Modellermittlungseinheit (72) zum Ermitteln eines 3D-Modells (3D-M) eines Überwachungsbereichs (10), - eine Kombinationsmodellerzeugungseinheit (73, 74) zum Erzeugen eines kombinierten Modells aus den ermittelten Sichtfeldern (SF) und dem 3D-Modell (3D-M) des Überwachungsbereichs (10), - eine Auswahleinheit (75) zum Durchführen eines Auswahlverfahrens, wobei für die Überwachung des Überwachungsbereichs (10) geeignete Kandidaten-Sensoren (S0, S1, S2, ..., Sn) auf Basis des kombinierten Modells ausgewählt werden.
  11. Infrastrukturseitiges Verkehrsüberwachungssystem, aufweisend: - eine Mehrzahl von Sensoreinheiten (S0, S1, S2, ..., SNS) zur Erfassung von Sensordaten in einem Überwachungsbereich (10), - eine Sensorpositionsermittlungseinrichtung (70) nach Anspruch 10 zur Positionierung der Sensoreinheiten (S0, S1, S2, ..., SNS) in dem Überwachungsbereich (10) .
  12. Autonomes Transportsystem, aufweisend: - mindestens ein zumindest teilautonom gesteuertes Fahrzeug (81), - ein infrastrukturseitiges Verkehrsüberwachungssystem nach Anspruch 11, wobei das zumindest teilautonom gesteuerte Fahrzeug (81) dazu eingerichtet ist, von dem infrastrukturseitigen Verkehrsüberwachungssystem erzeugte Sensordaten und/oder auf den Sensordaten basierende Informationen oder Steuerungsdaten zu erhalten.
  13. Computerprogrammprodukt mit einem Computerprogramm, welches direkt in eine Speichereinheit eines infrastrukturseitigen Verkehrsüberwachungssystems ladbar ist, mit Programmabschnitten, um alle Schritte eines Verfahrens nach einem der Ansprüche 1 bis 9 auszuführen, wenn das Computerprogramm in dem infrastrukturseitigen Verkehrsüberwachungssystem ausgeführt wird.
  14. Computerlesbares Medium, auf welchem von einer Rechnereinheit ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens nach einem der Ansprüche 1 bis 9 auszuführen, wenn die Programmabschnitte von der Rechnereinheit ausgeführt werden.
DE102021208616.0A 2021-08-06 2021-08-06 Anordnung von infrastrukturseitiger Überwachungssensorik Withdrawn DE102021208616A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021208616.0A DE102021208616A1 (de) 2021-08-06 2021-08-06 Anordnung von infrastrukturseitiger Überwachungssensorik

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021208616.0A DE102021208616A1 (de) 2021-08-06 2021-08-06 Anordnung von infrastrukturseitiger Überwachungssensorik

Publications (1)

Publication Number Publication Date
DE102021208616A1 true DE102021208616A1 (de) 2023-02-09

Family

ID=84975208

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021208616.0A Withdrawn DE102021208616A1 (de) 2021-08-06 2021-08-06 Anordnung von infrastrukturseitiger Überwachungssensorik

Country Status (1)

Country Link
DE (1) DE102021208616A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014010937A1 (de) 2014-07-28 2016-01-28 S.M.S, Smart Microwave Sensors Gmbh Verfahren zum Bestimmen einer Position und/oder Ausrichtung eines Sensors
DE102019209154A1 (de) 2019-06-25 2020-12-31 Siemens Mobility GmbH Infrastrukturseitige Umfelderfassung beim autonomen Fahren

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014010937A1 (de) 2014-07-28 2016-01-28 S.M.S, Smart Microwave Sensors Gmbh Verfahren zum Bestimmen einer Position und/oder Ausrichtung eines Sensors
DE102019209154A1 (de) 2019-06-25 2020-12-31 Siemens Mobility GmbH Infrastrukturseitige Umfelderfassung beim autonomen Fahren

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
AKBARZADEH, Vahab [u.a.]: Efficient sensor placement optimization using gradient descent and probabilistic coverage. In: Sensors, Vol. 14, 2014, No. 8, S. 15525-15552. ISSN 1424-8220 (E). DOI: 10.3390/s140815525. URL: https://www.mdpi.com/1424-8220/14/8/15525/pdf [abgerufen am 07.09.2021].
GEISSLER, Florian; GRÄFE, Ralf: Optimized sensor placement for dependable roadside infrastructures. In: 2019 IEEE Intelligent Transportation Systems Conference (ITSC), 27-30 October 2019, Auckland, New Zealand. 2019, S. 2408-2413. ISBN 978-1-5386-7025-5. DOI: 10.1109/ITSC.2019.8917197. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8917197 [abgerufen am 07.09.2021].
MANIVASAGAM, Sivabalan [u.a.]: LiDARsim: Realistic LiDAR simulation by leveraging the real world. In: 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 13-19 June 2020, Seattle, Washington, USA. 2020, S. 11164-11173. ISBN 978-1-7281-7169-2. DOI: 10.1109/CVPR42600.2020.01118. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9157601 [abgerufen am 07.09.2021].
MAVRINAC, Aaron; CHEN, Xiang: Modeling coverage in camera networks: A survey. In: International Journal of Computer Vision, Vol. 101, 2013, No. 1, S. 205-226. ISSN 1573-1405 (E); 0920-5691 (P). DOI: 10.1007/s11263-012-0587-7. URL: https://link.springer.com/content/pdf/10.1007/s11263-012-0587-7.pdf [abgerufen am 07.09.2021].
Roshan Vijay et al., 2021: Optimal Placement of Roadside Infrastructure Sensors towards Safer Autonomous Vehicle Deployments, arXiv: 2110.01251v1, 4. Oktober 2021
TAN, Haisheng [u.a.]: An approximate approach for area coverage in wireless sensor networks. In: Procedia Computer Science, Vol. 19, 2013, S. 240-247. ISSN 1877-0509 (E). DOI: 10.1016/j.procs.2013.06.035. URL: https://www.sciencedirect.com/science/article/pii/S1877050913006431 [Download PDF] [abgerufen am 07.09.2021].

Similar Documents

Publication Publication Date Title
DE112012001984B4 (de) Integrieren von Video-Metadaten in 3D-Modelle
DE102014013155A1 (de) Bildanzeigesystem
DE112016002817T5 (de) Änderungserfassungbasiertes bildaufnahme-beauftragungssystem
DE102016212700A1 (de) Verfahren und System zur Steuerung eines Fahrzeugs
DE19805794A1 (de) Schnelle planare Segmentierung von Entfernungsdaten für mobile Roboter
DE10325738B3 (de) Verfahren zur Generierung eines dreidimensionalen Geländemodells
EP3142913B1 (de) Umfeldkarte für fahrflächen mit beliebigem höhenverlauf
WO2013029722A2 (de) Verfahren zur umgebungsrepräsentation
DE102014208009A1 (de) Erfassen von statischen und dynamischen Objekten
DE102019131701A1 (de) Verfahren und einrichtung für verbesserte ortsentscheidungen auf grundlage der umgebung
DE102017215079A1 (de) Erfassen von Verkehrsteilnehmern auf einem Verkehrsweg
DE102018100487A1 (de) Objektverfolgung durch unüberwachtes lernen
DE202016008004U1 (de) Automatische Verbindung von Bildern unter Verwendung visueller Eigenschaftsquerverweise auf zugehörige Anwendungen
DE112021001971T5 (de) Automatisierte geländebezogene detektion von bohrplattformen und deren umgebung
DE102020127855A1 (de) Sicherheitssystem, automatisiertes fahrsystem und verfahren dafür
DE102018122374A1 (de) Verfahren zum Bestimmen eines ein Kraftfahrzeug umgebenden Freiraums, Computerprogrammprodukt, Freiraumbestimmungseinrichtung und Kraftfahrzeug
DE102010011186B4 (de) Verfahren und Vorrichtung zur Visualisierung von räumlich verteilten Informationen in einem Frühwarnsystem
EP3575912A1 (de) Mähroboter
DE102021201178A1 (de) Computerimplementiertes verfahren zum erzeugen von zuverlässigkeitsangaben für computervision
DE102021208616A1 (de) Anordnung von infrastrukturseitiger Überwachungssensorik
DE102021200348A1 (de) Computerimplementiertes verfahren zum trainieren eines computervisionsmodells
EP3580727A1 (de) Projektion von gegenständen in ct-röntgenbilder
DE102020200728A1 (de) Rekonstruieren von Elevationsinformationen aus Radardaten
LU102861B1 (de) Lidar- und photogrammetriegestützte Strukturerfassung zur Optimierung von Volumen- und Flächennutzungen und CO2-Emissionsreduktionen
DE102022000849A1 (de) Verfahren zur Erzeugung einer Umgebungsrepräsentation für ein Fahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee