DE102019202266A1 - Verfahren und Computerprogrammprodukt zum Adaptieren einer Auflösung eines Multisensorsystems eines Straßenfahrzeuges und Steuergerät für ein Multisensorsystem und Computerprogrammprodukt - Google Patents

Verfahren und Computerprogrammprodukt zum Adaptieren einer Auflösung eines Multisensorsystems eines Straßenfahrzeuges und Steuergerät für ein Multisensorsystem und Computerprogrammprodukt Download PDF

Info

Publication number
DE102019202266A1
DE102019202266A1 DE102019202266.9A DE102019202266A DE102019202266A1 DE 102019202266 A1 DE102019202266 A1 DE 102019202266A1 DE 102019202266 A DE102019202266 A DE 102019202266A DE 102019202266 A1 DE102019202266 A1 DE 102019202266A1
Authority
DE
Germany
Prior art keywords
sensor system
resolution
road vehicle
computer program
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019202266.9A
Other languages
English (en)
Inventor
Stefan Elser
Jochen ABHAU
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019202266.9A priority Critical patent/DE102019202266A1/de
Priority to PCT/EP2020/053294 priority patent/WO2020169386A1/de
Publication of DE102019202266A1 publication Critical patent/DE102019202266A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/28Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves by co-ordinating position lines of different shape, e.g. hyperbolic, circular, elliptical or radial
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S2205/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S2205/01Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/808Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • G01S3/8083Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems determining direction of source

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zum Adaptieren einer Auflösung eines Multisensorsystems (10) eines Straßenfahrzeuges (1), wobei wenigstens ein akustisches Signal prozessiert wird, um ein zugrundeliegendes Geräusch (S) zu lokalisieren und zu klassifizieren, in Abhängigkeit dieser Lokalisierung und Klassifizierung wenigstens ein Gefahrenbereich (G) bestimmt wird und das Multisensorsystem (10) in diesem Gefahrenbereich (G) mit hoher Auflösung und außerhalb dieses Gefahrenbereichs (G) mit niedriger Auflösung betrieben wird. Ferner bezieht sich die Erfindung auf ein Steuergerät (20) für ein Multisensorsystem (10) eines Straßenfahrzeuges (1) und ein Computerprogrammprodukt zum Adaptieren einer Auflösung eines Multisensorsystems (10) eines Straßenfahrzeuges (1).

Description

  • Die Erfindung bezieht sich auf ein Verfahren und ein Computerprogrammprodukt zum Adaptieren einer Auflösung eines Multisensorsystems eines Straßenfahrzeuges. Ferner bezieht sich die Erfindung auf Steuergerät für ein Multisensorsystem.
  • Folgende Definitionen gelten für den gesamten Gegenstand der Anmeldung.
  • Ein Multisensorsystem umfasst mehrere Sensoren zur Wahrnehmung einer Umgebung. Die Umgebung kann ein Umfeld eines Straßenfahrzeuges oder ein Innenraum eines Straßenfahrzeuges sein. Die Sensoren sind Fahrzeug interne Sensoren und/oder Fahrzeug externe Sensoren. Zum Beispiel umfasst das Multisensorsystem wenigstens einen full-range 77-GHz-Radarsensor, der Geschwindigkeit, Abstand, Seitenwinkel und Höhe von Objekten detektiert. Ferner umfasst das Multisensorsystem beispielsweise wenigstens einen Solid-State Lidar-Sensor mit wählbaren Sichtfeld. Außerdem umfasst das Multisensorsystem beispielsweise eine Außenraumkamera mit einem Megapixel-Bildsensor mit high dynamic range und/oder eine Innenraumkamera mit einem time-of-flight-Sensor zur Tiefenerfassung des Fahrzeuginnenraums. Jeder einzelne Sensor hat ein einstellbares räumliches und zeitliches Auflösungsvermögen. Die Daten der Fahrzeug externen Sensoren, zum Beispiel ein an einer Ampel angeordneter Bildsensor, werden mittels Vernetzung, beispielsweise Car-to-X-Kommunikation oder cloudbasiertem Input, bereitgestellt. Jeder einzelne Sensor erfasst die Umgebung, vorzugsweise in Echtzeit, in Abhängigkeit der verwendeten Sensortechnologie nach einem jeweils spezifischen Detektionsprinzip, zum Beispiel mittels Radarpulsen, Lichtpulsen oder Schallpulsen. Die Verwendung von mehreren Sensortechnologien führt damit zu einer möglichst wirklichkeitsgetreuen Aufnahme, im Englischen als perception bezeichnet, der Umgebung. Außerdem kann eine Erfassung der Umgebung durch eine erste Sensortechnologie mit einer Erfassung der Umgebung durch eine von der ersten verschiedenen zweiten Sensortechnologie plausibilisiert werden. Ein Multisensorsystem mit mehreren Sensoren ist ferner gegenüber einem Ausfall eines Sensors redundant. Das Multisensorsystem ist konfiguriert für Automotive-Anforderungen, beispielsweise für extreme Temperaturen und Vibrationen, und erfüllt aktuelle Sicherheitsanforderungen, zum Beispiel ISO 26262 und/oder NCAP.
  • Die erfassten Daten des Multisensorsystems werden mittels eines Computers, insbesondere einer Computerplattform, verarbeitet. Der Computer ist vorzugsweise Bestandteil eines elektronischen Steuergeräts. Der Computer und/oder das Steuergerät sind konfiguriert für den Automotive-Einsatz. Die Verarbeitung der Daten erfolgt in Echtzeit. Der Computer und/oder das Steuergerät sind konfiguriert, komplexe Verkehrssituationen, zum Beispiel eine Szene an einer urbanen Straßenkreuzung, in Echtzeit zu analysieren. Der Computer berechnet in Abhängigkeit von Fahrzeug internen und/oder externen Datenströmen eine Fahrentscheidung. Das Steuergerät steuert Aktuatoren des Straßenfahrzeuges entsprechend der Fahrentscheidung an.
  • Die Computerplattform ist beispielsweise als ein System-on-a-Chip realisiert, das heißt alle oder zumindest ein großer Teil der Funktionen sind auf einem Chip integriert. Der Chip umfasst beispielsweise einen Mehrkernprozessor. Bei einem Mehrkernprozessor sind mehrere Kerne auf einem einzigen Chip, das heißt einem Halbleiterbauelement, angeordnet sind. Mehrkernprozessoren erreichen eine höhere Rechenleistung und sind kostengünstiger in einem Chip zu implementieren im Vergleich zu Mehrprozessorsystemen, bei denen jeder einzelne Kern in einem Prozessorsockel angeordnet ist und die einzelnen Prozessorsockel auf einer Hauptplatine angeordnet sind. Die Computerplattform umfasst vorzugsweise mehrere zentrale Verarbeitungsprozessoren, im Englischen als Central Processing Unit, abgekürzt CPU, bezeichnet. Die Computerplattform umfasst auch mehrere Grafikprozessoren, im Englischen als Graphic Processing Unit, abgekürzt GPU, bezeichnet. Grafikprozessoren besitzen eine spezielle Mikroarchitektur zum parallelen Prozessieren von Abläufen. Insbesondere umfasst ein Grafikprozessor wenigstens eine Prozesseinheit, die speziell zum Ausführen von Tensor-und/oder Matrixmultiplikationen ausgeführt ist. Tensor- und/oder Matrixmultiplikationen sind die zentralen Rechenoperationen für das Deep Learning. Die Computerplattform umfasst vorzugsweise auch Hardware Beschleuniger für künstliche Intelligenz, insbesondere sogenannte Deep Learning Accelerators. Damit ist die Computerplattform insgesamt für maschinelles Lernen optimiert und skalierbar, das heißt die Computerplattform kann für verschiedene SAE J3016 Stufe angepasst werden.
  • In einem Multisensorsystem fallen sehr viele Daten an, die alle zu prozessieren sind. Abhängig von der jeweiligen Sensortechnologie existiert ein Spannungsverhältnis zwischen auswertbaren Daten pro Sensor pro Zeiteinheit und angestrebter Latenzzeit des Multisensorsystems und/oder benötigter Rechenressourcen. Stehen mehrere Signale hochauflösender Sensoren zu einer Szene zur Verfügung, ist tendenziell viel Detailinformation aus den Sensoren extrahierbar, jedoch erfordert dies einen hohen Datenprozessieraufwand. Durch die Zunahme an Messpunkten durch bessere Auflösung ist eine Auswertung Daten in Echtzeit erschwert.
  • Hier setzt die Erfindung an. Der Erfindung hat die Aufgabe zugrunde gelegen, den Datenstrom, den ein Multisensorsystem liefert, an Bereiche der Umgebung zu adaptieren. Von Bereichen, von denen eine Gefahr ausgeht, sollen möglichst viele Daten prozessiert werden. Von Bereichen, von denen keine Gefahr ausgeht, sollen relativ weniger Daten prozessiert werden.
  • Zur Lösung dieser Aufgabe stellt die Erfindung ein Verfahren und ein Computerprogrammprodukt zum Adaptieren einer Auflösung eines Multisensorsystems eines Straßenfahrzeuges und ein entsprechendes Steuergerät bereit. Wenigstens ein akustisches Signal wird prozessiert. Durch die Prozessierung des akustischen Signals wird ein zugrundeliegendes Geräusch lokalisiert und klassifiziert.
  • Beispielsweise wird das Geräusch mit einem Akustiksensor, der Bestandteil des Multisensorsystems sein kann, erfasst und von einer wie oben beschriebenen Computerplattform prozessiert. Die Computerplattform ist konfiguriert, in Abhängigkeit des Signals des Akustiksensors die Geräuschquelle und die Geräuschart zu bestimmen.
  • Der Akustiksensor ist beispielsweise ein Mikrofon oder ein Array von mehreren Mikrofonen. Der Akustiksensor ist an dem Straßenfahrzeug anordenbar.
  • In Abhängigkeit dieser Lokalisierung und Klassifizierung wird wenigstens ein Gefahrenbereich, beispielsweise von der Computerplattform, bestimmt. Ein Gefahrenbereich ist ein Bereich, innerhalb dessen ein Objekt, basierend auf dem akustischen Signal, zu erwarten ist. Ein Objekt ist beispielsweise ein Fahrzeug oder ein nicht motorisierter Verkehrsteilnehmer.
  • Wurde zum Beispiel das Geräusch als ein Reifenquietschen oder Motoraufheulen eines anderen Verkehrsteilnehmers, splitterndes Glas oder Schreie klassifiziert, deutet das Geräusch auf eine Gefahr hin, zum Beispiel auf einen stattgefundenen oder bevorstehenden Unfall. Die Geräuschquelle wurde beispielsweise vor dem Straßenfahrzeug in einer Entfernung von 20 Meter und in einem Winkelbereich von 30° zur Fahrzeugrichtung lokalisiert. Die Klassifikation und Lokalisation erfolgen ausgehend von dem akustischen Signal, insbesondere dessen Spektrum, durch Vergleich mit bekannten Geräuschen aus bekannten Positionen, die beispielsweise in einer Datenbank hinterlegt und abrufbar sind, oder durch maschinelles Lernen. In dem Bereich, der sich vor dem Straßenfahrzeug bis zu einem Abstand von 20 Metern in einem Winkelbereich von 30° zur Fahrzeugrichtung erstreckt, besteht eine Gefahr. Dies ist der Gefahrenbereich.
  • Das Multisensorsystem wird in diesem Gefahrenbereich mit hoher Auflösung und außerhalb dieses Gefahrenbereichs mit niedriger Auflösung betrieben.
  • Die Einstellung der Auflösung und das damit verbundene Datenvolumen werden damit in Abhängigkeit der Lokalisierung und Klassifikation von Geräuschen, die auf eine Gefahrenquelle in einem bestimmten Bereich hindeuten, vorgenommen. Damit werden einzelne Regionen selektiv mit adaptierter Auflösung des Multisensorsystems prozessiert. Das Datenvolumen wird damit verkleinert basierend auf Geräuschen.
  • Die räumliche Auflösung eines Bildsensors wird beispielsweise dadurch adaptiert, in dem verschiedene Bildformate mit verschiedener Auflösung auswählbar sind oder bestimme Bereiche der Fläche des Bildsensors, das heißt eine eingeschränkte Anzahl von Pixeln, Daten liefern. Die zeitliche Auflösung des Bildsensors wird beispielsweise adaptiert durch Änderung der Anzahl von Aufnahmen pro Zeiteinheit.
  • Aktuelle Strahlsensoren wie Radar oder Lidar erlauben es, Strahlen gebündelt in Richtungen auszusenden, die von besonderem Interesse sind, und dafür weniger Strahlen in andere Richtungen. Dies bedeutet, dass z.B. in Richtung einer Region mit vielen verschiedenen, möglicherweise auch kleineren Objekten, mehr Strahlen ausgesendet werden können, und z.B. in Richtung einer Hauswand weniger Strahlen. Auf diese Weise kann die Auflösung des Sensors lokal an die Szene angepasst werden, und diese Regionen sind von Aufnahme zu Aufnahme jeweils umparametrierbar. Erfindungsgemäß wird die Information aus den akustischen Sensoren zu verwendet, um zusätzlich diese Richtungen bzw. Regionen der anderen Strahlsensoren zu parametrieren, entlang denen mehr bzw. weniger Strahlen ausgesendet werden sollen.
  • Ein weiterer Vorteil der Erfindung ist, dass akustische Signale relativ kleine Datenmengen darstellen im Vergleich von Signalen von Strahlensensoren wie Radar oder Lidar. Daher sind die akustischen Signale besonders gut geeignet, vorab prozessiert zu werden, um Bereiche zu bestimmen, in denen die hochaufgelösten hohen Datenmengen der anderen Sensoren des Multisensorsystems prozessiert werden.
  • Die erfindungsgemäße Adaption der Auflösung des Multisensorsystems in Abhängigkeit eines Geräuschs entspricht dem menschlichen Aufmerksamkeitsverhalten. Hört ein Mensch ein Geräusch, das auf eine Gefahrenquelle hinweist, zum Beispiel Schreie, wird dieser Bereich mit den Augen erfasst und genauer nach der möglichen Gefahr untersucht. Die Erfindung stellt eine Aufmerksamkeitssteuerung für ein Multisensorsystem für automatisiertes Fahren bereit, mit der Gefahrenbereiche oder Bereiche, in denen Objekte, von denen eine Gefahr ausgeht, genauestens ausgewertet werden. Umgebungen, in denen keine Objekte zu erwarten sind, werden in geringerer Auflösung untersucht.
  • Bevorzugt erfolgt die Lokalisation und/oder Klassifikation mittels maschinellen Lernens. Zum Beispiel wird ein künstliches neuronales Netzwerk, insbesondere ein Faltungsnetzwerk, im Englischen convolutional neural networks genannt, auf einer wie oben beschriebenen Computerplattform ausgeführt, das als Eingabe die akustischen Signale erhält und trainiert ist, die Geräusche zu lokalisieren und zu klassifizieren, insbesondere hinsichtlich einer möglichen Gefahr. Die Ausgabe des künstlichen neuronalen Netzwerks ist ein Gefahrenbereich. Das maschinelle Lernen ermöglicht es, neue Informationen situationsbedingt schnell zu prozessieren und ist damit vorteilhaft, große Datenmengen, die das Multisensorsystem beim automatisierten Fahren generiert, in Echtzeit zu analysieren. Durch maschinelles Lernen wird die Rechenzeit verkürzt, die Genauigkeit erhöht und die bereitgestellte Sicherheit des Verfahrens oder des Multisensorsystems verbessert.
  • Nach einem weiteren Aspekt der Erfindung werden in dem Gefahrenbereich Merkmalsextraktionsalgorithmen mit langer Laufzeit und außerhalb des Gefahrenbereichs Merkmalsextraktionsalgorithmen mit kurzer Laufzeit verwendet. Lange Laufzeit bedeutet insbesondere, dass der Algorithmus hochgenau Daten auswertet. Kurze Laufzeit bedeutet insbesondere, dass der Algorithmus Daten vergleichsweise weniger genau die Daten auswertet. Dadurch wird die Prozesszeit, die benötigt wird, um eine Umgebung wahrzunehmen, nochmals minimiert, ohne auf die nötige Genauigkeit im Gefahrenbereich zu verzichten. Außerhalb des Gefahrenbereichs werden auf Laufzeit optimierte Algorithmen mit geringerer Genauigkeit angewendet. Merkmalsextraktionsalgorithmen sind zum Beispiel Bildverarbeitungsalgorithmen. Ein Bildverarbeitungsalgorithmus ist zum Beispiel Histogram of oriented gradients, der low level features, nämlich Kanten und Ecken, insbesondere deren Orientierung, bestimmt. Merkmalsextraktionsalgorithmen sind vorzugsweise künstliche neuronale Netzwerke, die high level features, das heißt Interpretationen von Merkmalen und deren Zusammenhänge, bestimmen.
  • Vorteilhafterweise werden die Messungen des Multisensorsystems innerhalb und außerhalb von Gefahrenbereichen fusioniert. Damit wird aus allen Ergebnissen der Objekterkennung im gesamten Messbereich ein Umgebungsmodell erhalten. Die Fusion erfolgt mittels Hardware und/oder Software eines Steuergeräts wie oben beschrieben, insbesondere innerhalb der oben beschriebenen Computerplattform. Fusion umfasst Methoden, um unterschiedliche Daten zu verknüpfen, mit dem Ziel, neues und präziseres Wissen über die Daten und damit verbundene Ereignisse zu gewinnen.
  • Nach einem weiteren Aspekt der Erfindung wird das Verfahren auf einem Steuergerät, insbesondere auf einer Computerplattform des Steuergeräts, ausgeführt. Das Verfahren ist damit ein computerimplementiertes Verfahren.
  • Das erfindungsgemäße Steuergerät ist konfiguriert für ein Multisensorsystem eines Straßenfahrzeuges. Das Multisensorsystem umfasst wenigstens einen Akustiksensor. Das Steuergerät ist konfiguriert, zur Adaption der Auflösung des Multisensorsystems ein erfindungsgemäßes Verfahren auszuführen. Vorteilhafterweise umfasst das Multisensorsystem mehrere Akustiksensoren zur Verbesserung der Positionsbestimmung der Geräuschquelle. Das Steuergerät weist vorzugsweise ein Gehäuse auf zum Schutz gegen hohe und/oder tiefe Temperaturen, Feuchtigkeit, Stöße und weitere Umwelteinflüsse, die bei dem Straßenfahrzeug auftreten.
  • Ein Steuergerät bereitet die Daten des Multisensorsystems als Eingangssignale auf, verarbeitet diese mittels eines Mikrocomputers, beispielsweiser einer Computerplattform wie oben beschrieben, und stellt Logik- und/oder Leistungspegel als Regel- oder Steuersignale bereit. Mittels den Regel- oder Steuersignalen wird die Auflösung des Multisensorsystems adaptiert. Das Steuergerät ist signaltechnisch mit dem Multisensorsystem verbunden und in ein Bordnetz des Straßenfahrzeuges integriert. Das Steuergerät ist insbesondere ein elektronisches Steuergerät für automatisierte Fahrfunktionen, im Englischen Domain ECU genannt.
  • Die Erfindung sieht eine Verwendung eines erfindungsgemäßen Steuergeräts in einem automatisiert oder autonom betreibbaren Straßenfahrzeug, das ein Multisensorsystem umfasst, vor.
  • Die Erfindung sieht auch ein Computerprogrammprodukt zum Adaptieren einer Auflösung eines Multisensorsystems eines Straßenfahrzeuges vor. Das Computerprogrammprodukt umfasst Softwarecodeabschnitte. Die Softwarecodeabschnitte bewirken, dass das erfindungsgemäße Steuergerät das erfindungsgemäße Verfahren ausführt, wenn das Computerprogramm auf dem Steuergerät läuft.
  • Das Computerprogrammprodukt umfasst eine Abfolge von Befehlen, durch die das Steuergerät bei geladenem Computerprogramm veranlasst wird, die Auflösung des Multisensorsystems nach dem erfindungsgemäßen Verfahren zu adaptieren. Das Computerprogrammprodukt ruft einen technischen Effekt hervor, nämlich die Adaption der Auflösung des Multisensorsystems.
  • Alternativ sieht die Erfindung vor, im Sinne einer frühen Fusion bei der Verarbeitung der einzelnen Sensordaten die Daten des akustischen Sensors nicht zu prozessieren bis hin zu fertigen Objekten als Input für die spätere Fusion, sondern beispielweise nur eine Belegungskarte der Umgebung zu berechnen, auf der mögliche Objekte vorkommen. Eine solche Heatmap muss noch keine konsolidierten Objekte enthalten, ist aber schon geeignet dafür, Regionen auszuschließen, in denen nur wenig passiert.
  • Die Erfindung wird in den Figuren beispielhaft erläutert. Es zeigen:
    • 1 ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens und
    • 2 ein Ausführungsbeispiel eines erfindungsgemäßen Steuergeräts.
  • In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsähnliche Bezugsteile. Übersichtshalber sind in den Figuren nur die jeweils relevanten Bezugsteile angegeben.
  • 1 zeigt schematisch das erfindungsgemäße Verfahren. Ein Akustiksensor 11 eines Straßenfahrzeuges 1 detektiert ein Geräusch S. Der Akustiksensor 11 ist ein Mikrofon. Das Straßenfahrzeug 1 ist ein PKW, das fahrerlos gefahren wird. Das Geräusch ist ein Quietschen von Reifen. Der Akustiksensor 11 wandelt das Geräusch S in ein akustisches Signal um. Ein elektronisches Steuergerät 20 prozessiert das akustische Signal. Dazu umfasst das Steuergerät 20 einen Mikrocomputer mit einer für künstliche Intelligenz konfigurierten Computerplattform. Durch das Prozessieren wird das Geräusch lokalisiert und klassifiziert. Die Computerplattform führt beispielsweise einen lernenden Algorithmus aus, der anhand des akustischen Signals erkennt, dass es sich bei dem Geräusch S um ein Reifenquietschen handelt aus einer Entfernung von beispielsweise 20 Meter in einem Winkelbereich von 20° relativ zu der Fahrzeugrichtung. Dieser Bereich wird als ein Gefahrenbereich G bestimmt. Das Steuergerät 20 steuert ein Multisensorsystem 10 nun so an, dass Sensoren 11, 12, 13 und 14 des Multisensorsystems 10 innerhalb des Gefahrenbereichs G mit voller Auflösung und außerhalb des Gefahrenbereichs G mit Standard-Auflösung die Umgebung erfassen. Damit wird ein Objekt, von dem das Geräusch S ausgeht, mit hoher Auflösung erfasst. Gleichzeitig wird der Datenstrom reduziert, weil die Sensoren 11, 12, 13 und 14 Regionen außerhalb des Gefahrenbereichs mit weniger Auflösung erfassen und damit dort weniger Daten produzieren.
  • 2 zeigt das Multisensorsystem 10. Das Multisensorsystem 10 umfasst vier Akustiksensoren 11, nämlich zwei, die im Frontbereich des Straßenfahrzeuges 1 angeordnet sind, und zwei, die im Heckbereich des Straßenfahrzeuges 1 angeordnet sind. Mit dieser Anordnung werden Gefahrenbereiche G besonders einfach und genau lokalisiert. Ferner umfasst das Multisensorsystem 10 vier Kameras 12, wobei an jeder Seite des Straßenfahrzeuges 1 jeweils eine Kamera 12 angeordnet ist. Des Weiteren umfasst das Multisensorsystem 10 beispielsweise ein Radar 13 und ein Lidar 14, die jeweils im Frontbereich des Straßenfahrzeuges 1 angeordnet sind. Das Steuergerät 20 ist signaltechnisch mit dem Multisensorsystem 10 verbunden. Das Steuergerät 20 ist in einem Bordnetz des Straßenfahrzeuges integriert.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    10
    Multisensorsystem
    11
    Akustiksensor
    12
    Kamera
    13
    Radar
    14
    Lidar
    20
    Steuergerät
    S
    Geräusch
    G
    Gefahrenbereich

Claims (8)

  1. Verfahren zum Adaptieren einer Auflösung eines Multisensorsystems (10) eines Straßenfahrzeuges (1), wobei wenigstens ein akustisches Signal prozessiert wird, um ein zugrundeliegendes Geräusch (S) zu lokalisieren und zu klassifizieren, in Abhängigkeit dieser Lokalisierung und Klassifizierung wenigstens ein Gefahrenbereich (G) bestimmt wird und das Multisensorsystem (10) in diesem Gefahrenbereich (G) mit hoher Auflösung und außerhalb dieses Gefahrenbereichs (G) mit niedriger Auflösung betrieben wird.
  2. Verfahren nach Anspruch 1, wobei die Lokalisation und/oder Klassifikation mittels maschinellen Lernens erfolgt.
  3. Verfahren nach Anspruch 1 oder 2, wobei in dem Gefahrenbereich (G) Merkmalsextraktionsalgorithmen mit langer Laufzeit und außerhalb des Gefahrenbereichs Merkmalsextraktionsalgorithmen mit kurzer Laufzeit verwendet werden.
  4. Verfahren nach einem der vorangehenden Ansprüche, wobei Messungen des Multisensorsystems (10) innerhalb und außerhalb von Gefahrenbereichen (G) fusioniert werden.
  5. Verfahren nach einem der vorangehenden Ansprüche, ausgeführt auf einem Steuergerät (20).
  6. Steuergerät (20) für ein Multisensorsystem (10) eines Straßenfahrzeuges (1) umfassend wenigstens einen Akustiksensor (11), wobei das Steuergerät (20) konfiguriert ist, zur Adaption der Auflösung des Multisensorsystems (10) ein Verfahren nach einem der Ansprüche 1 bis 5 auszuführen.
  7. Verwendung eines Steuergeräts (20) nach Anspruch 6 in einem automatisiert betreibbaren Straßenfahrzeug (1).
  8. Computerprogrammprodukt zum Adaptieren einer Auflösung eines Multisensorsystems (10) eines Straßenfahrzeuges (1), umfassend Softwarecodeabschnitte, die bewirken, dass das Steuergerät (20) nach Anspruch 6 ein Verfahren nach einem der Ansprüche 1 bis 5 ausführt, wenn das Computerprogramm auf dem Steuergerät (20) läuft.
DE102019202266.9A 2019-02-20 2019-02-20 Verfahren und Computerprogrammprodukt zum Adaptieren einer Auflösung eines Multisensorsystems eines Straßenfahrzeuges und Steuergerät für ein Multisensorsystem und Computerprogrammprodukt Pending DE102019202266A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019202266.9A DE102019202266A1 (de) 2019-02-20 2019-02-20 Verfahren und Computerprogrammprodukt zum Adaptieren einer Auflösung eines Multisensorsystems eines Straßenfahrzeuges und Steuergerät für ein Multisensorsystem und Computerprogrammprodukt
PCT/EP2020/053294 WO2020169386A1 (de) 2019-02-20 2020-02-10 VERFAHREN UND COMPUTERPROGRAMMPRODUKT ZUM ADAPTIEREN EINER AUFLÖSUNG EINES MULTISENSORSYSTEMS EINES STRAßENFAHRZEUGES UND STEUERGERÄT FÜR EIN MULTISENSORSYSTEM UND COMPUTERPROGRAMMPRODUKT

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019202266.9A DE102019202266A1 (de) 2019-02-20 2019-02-20 Verfahren und Computerprogrammprodukt zum Adaptieren einer Auflösung eines Multisensorsystems eines Straßenfahrzeuges und Steuergerät für ein Multisensorsystem und Computerprogrammprodukt

Publications (1)

Publication Number Publication Date
DE102019202266A1 true DE102019202266A1 (de) 2020-08-20

Family

ID=69570660

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019202266.9A Pending DE102019202266A1 (de) 2019-02-20 2019-02-20 Verfahren und Computerprogrammprodukt zum Adaptieren einer Auflösung eines Multisensorsystems eines Straßenfahrzeuges und Steuergerät für ein Multisensorsystem und Computerprogrammprodukt

Country Status (2)

Country Link
DE (1) DE102019202266A1 (de)
WO (1) WO2020169386A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020200875A1 (de) * 2020-01-24 2021-02-25 Zf Friedrichshafen Ag Verfahren zum Bereitstellen von Sensordaten durch eine Sensorik eines Fahrzeugs

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115824282B (zh) * 2022-08-25 2024-07-12 廊坊市大华夏神农信息技术有限公司 一种适用于多种传感器分辨力检测的计算方法和设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180096595A1 (en) * 2016-10-04 2018-04-05 Street Simplified, LLC Traffic Control Systems and Methods
DE102017203238A1 (de) * 2017-02-28 2018-08-30 Continental Automotive Gmbh Zonen adaptives Längsführungssystem

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19845568A1 (de) * 1998-04-23 1999-10-28 Volkswagen Ag Vorrichtung zur Objekterfassung für Kraftfahrzeuge
US6914854B1 (en) * 2002-10-29 2005-07-05 The United States Of America As Represented By The Secretary Of The Army Method for detecting extended range motion and counting moving objects using an acoustics microphone array
US8111174B2 (en) * 2007-10-03 2012-02-07 University Of Southern California Acoustic signature recognition of running vehicles using spectro-temporal dynamic neural network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180096595A1 (en) * 2016-10-04 2018-04-05 Street Simplified, LLC Traffic Control Systems and Methods
DE102017203238A1 (de) * 2017-02-28 2018-08-30 Continental Automotive Gmbh Zonen adaptives Längsführungssystem

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020200875A1 (de) * 2020-01-24 2021-02-25 Zf Friedrichshafen Ag Verfahren zum Bereitstellen von Sensordaten durch eine Sensorik eines Fahrzeugs

Also Published As

Publication number Publication date
WO2020169386A1 (de) 2020-08-27

Similar Documents

Publication Publication Date Title
DE102019115874B4 (de) Systeme und verfahren zur verbesserten entfernungsschätzung durch eine monokamera unter verwendung von radar- und bewegungsdaten
EP2043045B1 (de) Verfahren zur Objektverfolgung
DE102011103795B4 (de) System zum Bewerten eines Ziels in der Nähe eines Fahrzeugs
DE102018100469A1 (de) Generierten von simulierten sensordaten zum trainieren und überprüfen von erkennungsmodellen
DE102015109832A1 (de) Objektklassifizierung für Fahrzeugradarsysteme
DE102015109759A1 (de) Fahrzeugradarsteuerung
DE102015109270A1 (de) Strassenbelagszustandsdetektion mit rekursivem adaptivem lernen und validierung
DE102018128289A1 (de) Verfahren und vorrichtung für eine autonome systemleistung und zur einstufung
EP2951804A1 (de) Erstellen eines umfeldmodells für ein fahrzeug
WO2018215031A1 (de) Verfahren zur erkennung von objekten in einem bild einer kamera
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE102014106506A1 (de) Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102020105642A1 (de) Entwerfen von und verarbeiten mit antennenarrays zur beseitigung von fehldetektionen in einem radarsystem
DE102021103370A1 (de) Objekterkennung mittels low-level-kamera-radar-fusion
DE102018215753A1 (de) Vorrichtung und Verfahren zum Ermitteln einer Trajektorie eines Fahrzeugs
WO2020061603A1 (de) Verfahren und vorrichtung zur analyse eines sensordatenstroms sowie verfahren zum führen eines fahrzeugs
DE102019200849A1 (de) Verfahren zum Erfassen einer Bewegung eines Objekts
DE102017108248A1 (de) Strassenmerkmalserkennung mit einem fahrzeugkamerasystem
DE102019202266A1 (de) Verfahren und Computerprogrammprodukt zum Adaptieren einer Auflösung eines Multisensorsystems eines Straßenfahrzeuges und Steuergerät für ein Multisensorsystem und Computerprogrammprodukt
DE102019202634B3 (de) Verfahren, Steuergerät für ein automatisiert betreibbares Straßenfahrzeug, Computerprogrammprodukt zum Erkennen von Objekten im Straßenverkehr und automatisiert betreibbares Straßenfahrzeug für Mobilitätsdienstleistungen
DE102018129323A1 (de) Verfahren und Vorrichtung zur verbesserten Radarzielverfolgung mit Leistungsinformationen
DE102018128583A1 (de) Fahrzeugradarsteuerung
DE102018103969A1 (de) Computer-implementiertes Verfahren zur Erzeugung von Sensordaten
EP3699866A1 (de) Verfahren, steuergerät und computerprogrammprodukt zum bestimmen einer kopforientierung und/oder -position eines fahrzeuginsassen
DE102023103171A1 (de) VERFAHREN UND VORRICHTUNG ZUM BESTIMMEN DER POSITION EINES FUßGÄNGERS

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R016 Response to examination communication